- Категория
- Новости
- Дата публикации
- Переключить язык
- Читати українською
OpenAI представила две новые модели искусственного интеллекта: какие задачи могут выполнять

Американская компания OpenAI 16 апреля представила две новые модели искусственного интеллекта (ШИ) – o3 и o4-mini, которые предназначены для решения более широкого спектра задач: от кодировки до визуального анализа.
Об этом сообщила компания-разработчик.
"Это самые умные модели, которые мы выпустили на сегодняшний день, являющие собой шаг вперед в возможностях ChatGPT для всех от заинтересованных пользователей до продвинутых исследователей", — отметили в OpenAI.
По их данным, o3 – это самая современная на сегодня модель рассуждений и первая в серии моделей, обрабатывающая просмотр веб-страниц, генерацию изображений и визуальное восприятие.
Модель o4-mini оптимизирована для быстрого и экономичного размышления. Она достигает хороших результатов, особенно в математических, кодирующих и визуальных задачах. Это самая производительная тестируемая модель на AIME 2024 и 2025.
"OpenAI o3 и o4-mini — наши первые модели, которые могут мыслить образами, то есть они не просто видят изображение, а могут интегрировать визуальную информацию непосредственно в свою цепочку рассуждений", — рассказали в компании.
Обе модели будут доступны пользователям ChatGPT Plus, Pro и Team, а o3-pro появится через несколько недель.
Люди могут загрузить фотографию, схему учебника или нарисованный от руки эскиз, а новые модели ИИ от OpenAI могут интерпретировать их, даже если изображения размыты, перевернуты или низкого качества. Используя инструменты, o3 и o4-mini могут манипулировать изображениями на лету, вращая, масштабируя или трансформируя их в рамках своего процесса размышления.
OpenAI также представила Codex CLI, который компания описывает как "легкий кодировочный инструмент с открытым исходным кодом, работающий локально" в терминальном приложении компьютера и работает с o3 и o4-mini.
Напомним, OpenAI представила серию ШИ-моделей GPT-4.1 с улучшенной кодировкой и контекстом .