OpenAI выпустила две новые языковые модели с открытым весом под лицензией Apache 2.0. Они дают отличную производительность и могут работать даже на обычном железе. Одна модель запускается на ноутбуке с 16 ГБ видеопамяти.
Какие модели вышли?
- gpt-oss-120b — 117 миллиардов параметров
- gpt-oss-20b — 21 миллиард параметров
Большая модель gpt-oss-120b показывает уровень, как у o4-mini, но ей нужна одна видеокарта на 80 ГБ. Меньшая gpt-oss-20b работает примерно как o3-mini и запускается на 16 ГБ GPU. Это значит, что разработчики могут использовать их без дорогих серверов.
Что они умеют?
- Хорошо справляются с задачами на логику и рассуждения
- Могут использовать инструменты: веб-поиск, выполнение кода Python
- Поддерживают цепочку рассуждений (Chain of Thought) и структурированный вывод
- Можно настроить под свои задачи
Модели совместимы с API OpenAI и интегрируются с Hugging Face, GitHub, llama.cpp и другими платформами.
Безопасность
OpenAI проверила безопасность этих моделей. Даже при попытке «вредной» дообучки они не достигли опасного уровня в химии, биологии или киберрисках.
Цепочка рассуждений без фильтра
OpenAI специально не фильтрует цепочку рассуждений, чтобы разработчики могли видеть логику работы модели. Это помогает следить за её поведением, но из-за этого могут быть «галлюцинации» — выдуманные факты.
Галлюцинации и тесты
На тестах модели показали больше ошибок (галлюцинаций), чем o4-mini. Это ожидаемо, так как модели меньше. Но в реальных задачах, где есть доступ к поиску или базе данных, галлюцинаций будет меньше.
Итог
- OpenAI открыла две модели с весами под Apache 2.0.
- Модели дают мощную логику и работают на доступном железе.
- Поддерживают инструменты, структурированный вывод и интеграции.
- Можно дообучать и настраивать под свои задачи.
- Есть риск галлюцинаций, но прозрачность важнее.
Комментарии