- Категория
- Техно
- Дата публикации
- Переключить язык
- Читати українською
AI4Future: Главные ШИ-новости недели (16-22 декабря)
Эта неделя отличилась интересными и несколько детективными трендами. Во-первых, машины (алгоритмы), созданные по подобию людей, получают определенные положительные и отрицательные характеристики и недостатки людей. виски от американского бурбона и определить основные ароматы, используя данные, а не дегустацию напитков. обнаружило, что у чат-ботов со временем происходит когнитивная деградация и появляются признаки деменции, как у людей.
Во-вторых, целая детективная история обнаружилась в отношении OpenAI . Бывший исследователь OpenAI, ставший обличителем неэтичности компании, был найден мертвым в квартире в Сан-Франциско, сообщили власти. В то же время компания продолжает свой марафон новинок и анонсировала выплаты бывшим и нынешним сотрудникам в рамках приватной продажи акций, организованной японской компанией SoftBank Group.
В-третьих, следует отметить ряд знаковых научных прорывов и выводов. Так, соучредитель OpenAI Илья Суцкевер заявил, что подход к созданию ИИ изменится: "Мы достигли пика данных и новых больше не будет", — сказал он. Meta AI анонсировала свое изобретение — Byte Latent Transformer (BLT), являющегося архитектурой без токенизатора, обрабатывающей "сырые" байтовые последовательности и динамично группирующей их в патче в зависимости от сложности данных. Этот подход обеспечивает эффективное масштабирование, достигая или превосходя производительность моделей на основе токенизации (вся текущая ИИ-экосистема построена на подходе токенизации данных). И, в конце концов, Nvidia заявила, что "нейронный рендеринг" может стать новейшей ШИ-магией в графических процессорах следующего поколения Nvidia RTX 50-серии. Другими словами, игры больше не будут рендероваться с помощью традиционного 3D-пайплайна, а будут полностью создаваться нейронными сетями.
Обзор новостей за эту неделю
Соучредитель OpenAI и бывший главный научный сотрудник Илья Суцкевер привлек внимание СМИ в начале этого года после того, как покинул компанию, чтобы основать собственную лабораторию искусственного интеллекта Safe Superintelligence Inc. После ухода он избегал публичности, но в пятницу сделал редкое выступление в Ванкувере на конференции по нейронной информационной обработке систем (NeurIPS). «Предыдущая учеба, которую мы знаем, несомненно завершится», – сказал Суцкевер. Это касается первого этапа разработки моделей ИИ, когда большие языковые модели изучают закономерности, используя огромные объемы немаркированных данных – обычно текстов из интернета, книг и других источников. "Мы достигли пика данных, и новых больше не будет". Во время выступления на NeurIPS Суцкевер отметил, что, хотя имеющиеся данные все еще могут продвинуть развитие ИИ, индустрия приближается к исчерпанию новых данных для обучения. Это, по его словам, заставит разработчиков изменить подход к обучению моделей. «Мы должны работать с данными, которые у нас есть. Интернет только один».
Обличитель неэтичности деятельности OpenAI найден мертвым в квартире в Сан-Франциско
Бывший исследователь OpenAI, ставший обличителем неэтичности компании, был найден мертвым в квартире в Сан-Франциско, сообщили власти.
Тело 26-летнего Сучира Баладжи было обнаружено 26 ноября после того, как полиция получила звонок с просьбой проверить его самочувствие. Офис судмедэксперта Сан-Франциско определил, что причина смерти – самоубийство, а полиция не выявила признаков насильственных действий. В последние месяцы Баладжи публично критиковал практики компании OpenAI, столкнувшейся с рядом судебных исков по сбору данных. В октябре газета New York Times опубликовала интервью с Баладжи, в котором он утверждал, что OpenAI нарушала законы об авторском праве США при разработке своего популярного чат-бота ChatGPT.
Microsoft AI представляет Phi-4: новую компактную языковую модель на 14 миллиардов параметров, специализированную на сложных соображениях
Большие языковые модели добились значительных успехов в понимании природного языка, решении программистских задач и решении логических задач. Однако высокая стоимость вычислений и зависимость от масштабных наборов данных создают ряд проблем. Многие наборы данных не имеют необходимого разнообразия и глубины для сложных соображений, а такие вопросы, как загрязнение данных, могут снижать точность оценки. Чтобы решить эти вызовы, Microsoft Research разработала Phi-4 – языковую модель на 14 миллиардов параметров, отличающуюся эффективностью в задачах рассуждения при оптимизированном использовании ресурсов.
Meta AI представляет Byte Latent Transformer (BLT): модель без эффективно масштабируемого токенизатора.
Традиционно обучение на последовательностях байтов требовало больших вычислительных затрат из-за длинных последовательностей, необходимых для этого процесса. Даже с усовершенствованиями в механизмах самовнимания токенизация остается узким местом, что снижает устойчивость и адаптивность в задачах с высокой энтропией. Byte Latent Transformer (BLT) от Meta AI направлен на решение этих проблем, полностью устраняя токенизацию. BLT является архитектурой без токенизатора, которая обрабатывает "сырые" байтовые последовательности и динамически группирует их в патче в зависимости от сложности данных. Этот подход обеспечивает эффективное масштабирование, достигая или превосходя производительность моделей на основе токенизации, одновременно улучшая устойчивость и эффективность инференса.
"Нейронный рендеринг" может стать новой ШИ-магией в графических процессорах следующего поколения Nvidia RTX 50-серии
После подтверждения информации о сверхмощной видеокарте RTX 5090 с 32 ГБ памяти от Nvidia появились новости, компания, возможно, готовит масштабное улучшение, усиленное искусственным интеллектом. Оно сделает графику в играх на шаг ближе к полностью воспроизведенной нейронными сетями. Другими словами, игры больше не будут рендероваться с помощью традиционного 3D-пайплайна, а будут полностью создаваться нейронными сетями.
Google упрощает требования для своих клиентов из высокорисковых сфер по использованию ШИ-продуктов компании, несмотря на ужесточение общих регуляторных требований по использованию ШИ-инструментов в высокорисковых сферах
Согласно обновленной политике Generative AI Prohibited Use Policy, опубликованной во вторник, клиентам разрешается использовать генеративный ИИ Google для принятия "автоматизированных решений", которые могут оказать "существенное негативное влияние на права личности" При условии определенного человеческого надзора, клиенты могут применять ИИ принятие решений в таких "высокорисковых" сферах, как трудоустройство, жилье, страхование, социальное обеспечение и т.д. Кажется, что этот промоход направлен на отвоевание доли рынка у конкурентов (таких как OpenAI и Anthropic), которые имеют более строгие правила использования их систем для высокорисковых автоматизированных решений.
Ведущие AI-чат-боты демонстрируют когнитивный спад, похожий на деменцию, в тестах, вызывающий вопросы по поводу их будущего в медицине.
Почти все ведущие модели больших языковых моделей, или "чат-боты", демонстрируют признаки легкого когнитивного возбуждения в тестах, широко используемых для выявления ранних признаков деменции, как показало исследование, опубликованное в рождественском выпуске журнала BMJ . Хотя многочисленные исследования уже показали, что большие языковые модели (LLMs) могут эффективно выполнять широкий спектр медицинских диагностических задач, их уязвимость к "человеческим" проблемам, таким как когнитивный спад, еще не изучали. Чтобы восполнить этот пробел, исследователи оценили когнитивные способности ведущих общедоступных LLM-моделей – ChatGPT версий 4 и 4o (разработанных OpenAI), Claude 3.5 “Sonnet” (разработанной Anthropic) и Gemini версий 1 и 1.5 (разработанных Alphabet) функций (MoCA). ChatGPT 4o получил самый высокий балл в тесте MoCA (26 из 30), за ним следуют ChatGPT 4 и Claude (25 из 30), а худший результат показала модель Gemini 1.0 (16 из 30).
OpenAI представила новые инструменты для разработчиков, среди которых OpenAI o1, обновление Realtime API, новый метод настройки моделей и многое другое
Новые инструменты для настройки и обновления улучшают производительность, гибкость и экономическую эффективность для разработчиков, работающих с ИИ.
Среди новинок:
1. OpenAI o1 в API с поддержкой вызова функций, сообщений для разработчиков, структурированных результатов и возможностей работы с изображениями.
2. Обновление Realtime API , включая интеграцию WebRTC, снижение цены на аудио GPT-4o на 60% и поддержку GPT-4o mini по цене в десять раз меньше предыдущих тарифов на аудио.
3. Preference Fine-Tuning , новый метод настройки моделей, позволяющий легче адаптировать модели в соответствии с потребностями пользователей и разработчиков.
4. Новые SDK для Go и Java , которые уже доступны в бета-версии.
Художники и медиа Великобритании отклонили план разрешить компаниям по ИИ использовать материалы, защищенные авторским правом
Коалиция музыкантов, фотографов и издателей настаивает на соблюдении действующих законов об авторском праве. Писатели, издатели, музыканты, фотографы, кинопродюсеры и газеты отклонили план правительства Лейбористской партии создать исключение из законов об авторском праве для помощи ИИ-компаниям в обучении их алгоритмам. Глава парламентского комитета по культуре, медиа и спорту от Консервативной партии Каролайн Диненейдж обвинила правительство в том, что оно "полностью подверглось влиянию идеи о преимуществах ИИ".
Сотни сотрудников OpenAI получат многомиллионные выплаты из-за частной продажи акций
Около 400 нынешних и бывших сотрудников OpenAI смогут получить значительные выплаты в рамках частной продажи акций, организованной японской компанией SoftBank Group. Это соглашение, приуроченное к праздничному сезону, позволяет участникам продать свои акции по цене $210 за штуку, что соответствует последней оценке компании в $157 миллиардов.
Искусственный интеллект превосходит человеческих экспертов в определении американского виски и шотландского виски
Искусственный интеллект может точнее, чем человеческие эксперты, отличить шотландский виски от американского бурбона и определить основные ароматы, используя данные, а не дегустацию напитков. Андреас Граскамп из Института инженерии процессов и упаковки Фраунгофера (Германия) вместе с коллегами научил алгоритм молекулярного предсказания запахов OWSum на основе описаний разных виски.