- Категорія
- Техно
- Дата публікації
- Змінити мову
- Читать на русском
OpenAI представив модель штучного інтелекту GPT-4o mini
Компанія OpenAI представила нову економічну модель штучного інтелекту під назвою GPT-4o mini, яка дозволяє знизити витрати на використання штучного інтелекту і розширити його застосування.
GPT-4o mini продемонструвала високі результати у тестах на розуміння та аналіз тексту, досягнувши 82% на MMLU. Такий результат означає, що модель здатна ефективно розуміти та інтерпретувати текстову інформацію.
Однією з ключових переваг GPT-4o mini є її доступність. Вартість обробки інформації значно нижча, ніж у попередніх моделей. OpenAI вимірює обсяг інформації в токенах, які приблизно відповідають словам або частинам слів. Так, обробка мільйона вхідних токенів коштує 15 центів (близько 6 гривень), а мільйона вихідних – 60 центів (близько 25 гривень).
Відтак, вартість GPT-4o mini більш ніж на 60% нижча за GPT-3.5 Turbo, що робить її привабливою альтернативою для тих, хто шукає економічно ефективні рішення у сфері штучного інтелекту.
Підписуйтесь на Telegram-канал delo.uaGPT-4o mini підтримує виконання завдань з низькими витратами і затримками, такі як обробка великого обсягу контексту, ланцюгові чи паралельні виклики моделі (наприклад, використання кількох API) або взаємодія з клієнтами через швидкі текстові відповіді у режимі реального часу (наприклад, чат-боти підтримки клієнтів).
Модель також підтримує текст і зображення в API, а в майбутньому підтримуватиме відео та аудіовходи і виходи. Вона має контекстне вікно на 128 тисяч токенів, підтримує до 16 тисяч вихідних токенів за запитом і має знання до жовтня 2023 року. Покращений токенізатор робить обробку тексту на інших мовах більш економічною.
У ChatGPT користувачі тарифних планів Free, Plus і Team вже можуть отримати доступ до GPT-4o mini замість GPT-3.5.
OpenAI представив голосову модель GPT-4o
У травні OpenAI представила ще одну нову модель штучного інтелекту GPT-4o, яка є голосовим помічником, здатним обговорювати аудіо, зображення та текст у режимі реального часу. GPT-4o реагує на аудіовхід за 232 мілісекунди, що відповідає швидкості реакції людини в розмові.
Завдяки цій моделі користувачі можуть спілкуватися з ChatGPT у розмовній манері, навіть перериваючи його посеред відповіді, а модель демонструє адаптивність у реальному часі.GPT-4o також здатний розпізнавати емоційні нюанси в голосі та відповідати в різних емоційних стилях.
Зазначається, що GPT-4o краще сприймає зображення, аудіо та іншу візуальну інформацію порівняно з попередніми моделями, що значно покращило його можливості в обробці мовлення. Також нові функції включають завантаження скриншотів та постановку запитань на їх основі, запам'ятовування попередніх питань та можливість безпосередньо виходити в інтернет.