
Sign up to save your podcasts
Or


OpenAI впервые за шесть лет открыла веса своих моделей — gpt-oss-20b и gpt-oss-120b. Теперь компании могут запускать LLM на собственных серверах, адаптировать их под бизнес-процессы, дообучать на корпоративных данных и работать без зависимости от облачных API.
В этом выпуске обсуждаем:
в чём разница между gpt-oss-20b и gpt-oss-120b и для каких задач подходит каждая;
как архитектура MoE и формат Harmony повышают эффективность, прозрачность и интерпретируемость вывода;
какие возможности даёт agentic-функциональность: вызов внешних функций, веб-браузинг, запуск Python-кода;
как открытые LLM помогают снизить расходы, усилить безопасность и соответствовать регуляторным требованиям;
какие риски несёт отсутствие встроенной модерации и как их минимизировать.
Разберём примеры применения в маркетинге, клиентской поддержке, аналитике и R&D, а также чек-лист шагов по внедрению в инфраструктуру компании. Этот выпуск — практическое руководство по тому, как использовать открытые LLM для создания приватных, гибких и масштабируемых AI-решений.
By Любовь ЧеремисинаOpenAI впервые за шесть лет открыла веса своих моделей — gpt-oss-20b и gpt-oss-120b. Теперь компании могут запускать LLM на собственных серверах, адаптировать их под бизнес-процессы, дообучать на корпоративных данных и работать без зависимости от облачных API.
В этом выпуске обсуждаем:
в чём разница между gpt-oss-20b и gpt-oss-120b и для каких задач подходит каждая;
как архитектура MoE и формат Harmony повышают эффективность, прозрачность и интерпретируемость вывода;
какие возможности даёт agentic-функциональность: вызов внешних функций, веб-браузинг, запуск Python-кода;
как открытые LLM помогают снизить расходы, усилить безопасность и соответствовать регуляторным требованиям;
какие риски несёт отсутствие встроенной модерации и как их минимизировать.
Разберём примеры применения в маркетинге, клиентской поддержке, аналитике и R&D, а также чек-лист шагов по внедрению в инфраструктуру компании. Этот выпуск — практическое руководство по тому, как использовать открытые LLM для создания приватных, гибких и масштабируемых AI-решений.