Думаете, увеличение контекстного окна до миллионов токенов решает все проблемы? На самом деле модели всё равно теряют фокус, упускают важные детали в середине и страдают от информационной перегрузки!
В этом выпуске обсуждаем:
🔹 Retrieval-Augmented Generation (RAG): как эта технология борется с "галлюцинациями" и устаревшими данными, обогащая ответы AI.
💡 GraphRAG: почему семантические графы — это следующий шаг в понимании сложных связей в данных, и как это меняет игру.
🎧 Tools и Function Calling: как научить модель взаимодействовать с внешним миром, получать актуальную информацию и выполнять действия через API.
💬 AI-агенты: как мы переходим от простых диалоговых сценариев к автономным системам, способным самостоятельно планировать и выполнять задачи.
Этот выпуск будет особенно полезен разработчикам и архитекторам, которые хотят создавать более умные и автономные AI-решения, используя такие инструменты, как Amazon Bedrock.
💡 Узнаете, почему Nova Micro в 27 раз дешевле популярных моделей и как правильно декомпозировать документы для векторного поиска с учётом прав доступа.
(0:00) Introduction
(3:15) Проблема ограниченного контекста в LLM
(8:40) Что такое RAG и как он обогащает запросы?
(15:20) GraphRAG: новый уровень работы с данными через графы
(22:10) Tools и Function Calling: как научить LLM действовать?
(28:55) От диалоговых флоу к автономным AI-агентам
(35:30) Анонс следующего эпизода: что такое MCP?
00:00:00 - Начало
00:03:15 - Проблема ограниченного контекста в LLM
00:08:40 - Что такое RAG и как он обогащает запросы?
00:15:20 - GraphRAG: новый уровень работы с данными через графы
00:22:10 - Tools и Function Calling: как научить LLM действовать?
00:28:55 - От диалоговых флоу к автономным AI-агентам
00:35:30 - Анонс следующего эпизода: что такое MCP?
🎧 Слушайте на любимой платформе:
• 💬 Какие подходы к расширению контекста используете вы? Пробовали Graph RAG в продакшене?
#AWS #AI #RAG #GraphRAG #LLM