- Категорія
- Новини
- Дата публікації
- Змінити мову
- Читать на русском
OpenAI представила дві нові моделі штучного інтелекту: які задачі можуть виконувати

Американська компанія OpenAI 16 квітня представила дві нові моделі штучного інтелекту (ШІ) — o3 і o4-mini, які призначені для вирішення ширшого спектра завдань: від кодування до візуального аналізу.
Про це повідомила компанія-розробник.
"Це найрозумніші моделі, які ми випустили на сьогоднішній день, що являють собою крок вперед у можливостях ChatGPT для всіх, від зацікавлених користувачів до просунутих дослідників", — зазначили в OpenAI.
За їх даними, o3 - це найсучасніша на сьогодні модель міркувань і перша в серії моделей, яка обробляє перегляд веб-сторінок, генерацію зображень і візуальне сприйняття.
Модель o4-mini оптимізована для швидкого та економічного міркування. Вона досягає гарних результатів особливо в математичних, кодуючих та візуальних задачах. Це найпродуктивніша протестована модель на AIME 2024 та 2025.
"OpenAI o3 і o4-mini — наші перші моделі, які можуть мислити образами, тобто вони не просто бачать зображення, а можуть інтегрувати візуальну інформацію безпосередньо у свій ланцюжок міркувань", — розповіли у компанії.
Обидві моделі будуть доступні для користувачів ChatGPT Plus, Pro і Team, а o3-pro з'явиться через кілька тижнів.
Люди можуть завантажити фотографію, схему підручника або ескіз, що намальований від руки, а нові моделі ШІ від OpenAI можуть інтерпретувати їх, навіть якщо зображення розмиті, перевернуті або низької якості. Використовуючи інструменти, o3 і o4-mini можуть маніпулювати зображеннями на льоту, обертаючи, масштабуючи чи трансформуючи їх у межах свого процесу міркування.
OpenAI також представила Codex CLI, який компанія описує як "легкий інструмент кодування з відкритим вихідним кодом, що працює локально" у термінальному додатку комп'ютера та працює з o3 та o4-mini.
Нагадаємо, OpenAI представила серію ШІ-моделей GPT-4.1 з покращеним кодуванням та контекстом.