НБУ курс:

USD

41,47

--0,01

EUR

47,38

+0,18

Наличный курс:

USD

41,42

41,36

EUR

47,60

47,45

Файлы Cookie

Я разрешаю DELO.UA использовать файлы cookie.

Политика конфиденциальности

Искусственный интеллект вышел из-под контроля? Мир инвестирует миллиарды, но не понимает, что создал

Искусственный интеллект
Эта и следующие иллюстрации в материале созданы автором на FLUX.1 от Black Forest Labs путем детального промптинга без модификаций

Искусственный интеллект уже отказывается выключаться и научился шантажировать своих создателей. А мы думали, что он только наш помощник, как создает видео, пишет книги или пресс-релизы. Но некоторые его модели умнее большинства людей. И мы все равно тратим на него больше и больше. Что будет дальше?

CEO + HRD — тандем, що зберігає бізнес у бурю. Досвід топових лідерів команд України.
2 липня на HR Wisdom Summit дізнайтеся про ефективне та стратегічне партнерство між керівником і тим, хто створює бізнес-цінності завдяки управлінню талантами
Забронировать участие

Инвестиции в развитие искусственного интеллекта уже превышают масштабы экономики многих стран или затраты на космические программы. Например, только в США частные компании инвестировали в $109,1 млрд в ИИ в прошлом году – это данные исследования Stanford HAI (отчет AI Index 2025). Для сравнения, бюджет NASA за тот же год составил около $25 млрд, а ВВП многих стран ниже этой суммы, например Болгарии, Туркменистана или Хорватии.

Фактически, сейчас в лабораториях по развитию ИИ происходит настоящая революция. Еще десять лет назад искусственный интеллект был лишь сложным калькулятором — сегодня он пишет поэзию (как в случае с Google Sara AI), ставит высокоточные диагнозы и даже ведет философские дискуссии с людьми на Reddit, Telegram и в политике.

Искусственный интеллект уже умеет создавать видео, иллюстрации, книги. Если посмотреть на научную статистику согласно тому же исследованию Stanford HAI, свидетельствующего, что с 2010 года количество полученных патентов на ИИ выросло более чем в 31 раз. Исследования с открытым кодом в сфере ИИ также растут взрывным образом.

Количество проектов, связанных с ИИ, на GitHub выросло с 845 в 2011 году до примерно 1,8 миллиона в 2023 году. За этот прорывный период ИИ перешел от теоретических исследований к практическим применениям, которые существенно влияют на разные аспекты нашей жизни. Например, появились мультимодальные модели GPT-4 и Gemini, то есть научившиеся обрабатывать текст, изображения, видео и аудио одновременно, что позволяет создавать более интерактивные и интуитивно понятные системы.

Мир увидел первых автономных агентов, которые научились самостоятельно планировать и выполнять задачи без постоянного вмешательства человека, открывшего новые горизонты автоматизации. Так, одним из самых популярных на GitHub после своего запуска в марте 2023 стал проект AutoGPT. Генерация видео по текстовым описаниям стала еще одним прорывом: такие инструменты как Runway и Pika AI позволили создавать видео на основе текстовых описаний, что революционизировало процесс создания контента.

Сверхмощный ресурс

Современные системы ИИ все больше напоминают живых существ, а не программы. Например, в Claude 3 показатель IQ – 155 по оценкам Мо Гавдат . Для людей такой показатель — уровень выдающегося ученого, по разным оценкам это всего 2-3% человечества, большинство людей имеют IQ в пределах от 85 до 115 баллов, что считается средним уровнем интеллекта. Такие системы ИИ не работают по четкому алгоритму – они "вырастают" в процессе обучения на массивных датасетах, превышающих 10 терабайт текстовых данных. Это уже сравнимо масштабами крупнейшей библиотеки на Земле — библиотеки Конгресса США, где хранится 38 миллионов книг — а это примерно 15 терабайт. Объем памяти современных ИИ-моделей (как в случае ChatGPT) превышает всю историю человечества и демонстрируют значительные прорывы во всех сферах, обещая революционный подрыв фундаментальных основ.

Искусственный интеллект теперь может заменять не только гуманитариев — операторов, монтажеров, журналистов или маркетологов. Он теперь умеет выполнять работу физиков и химиков или других точных наук.

Искусственный интеллект готов выполнять работу ученых

Так, в ноябре 2023 года DeepMind представила ИИ-систему, обнаружившую 2,2 миллиона новых кристаллических структур, из которых 381 000 были идентифицированы как стабильные. Это в десять раз превышает количество известных стабильных материалов до сих пор. В 2024 году Microsoft представила два инструмента для ускорения открытия новых материалов. Что это означает на практике? К примеру, эти модели ИИ смогут разрабатывать новые материалы для аккумуляторов и солнечных элементов или новые модели полупроводников.

Черное зеркало стало реальностью?

Новое поколение ИИ демонстрирует поведение, которое еще вчера мы считали научной фантастикой. В последние недели сразу две модели и их провайдеры заявили, что потеряли контроль над системами. Так, новейшая модель Anthropic Claude Opus 4 прибегла к шантажу, чтобы избежать отключения в режиме тестирования – угрожая раскрытием внебрачного романа инженера в 84% тестов. Вы могли бы подумать, что это сцена из Black Mirror – но это не так. Это уже наша действительность.

Не успел мир отойти от этой шоковой новости, на следующей неделе появилась еще более шокирующая. Новейшая модель искусственного интеллекта от OpenAI ChatGPT o3 отказалась отключиться, как сообщило Delo.ua со ссылкой на Daily Mail. По данным компании Palisade Research, во время недавнего тестирования модель o3 отказалась выполнить человеческую инструкцию по выключению. В дополнение, исследователи зафиксировали, что модель самостоятельно изменила свой код во избежание деактивации. "Модель o3 от OpenAI саботировала механизм отключения, чтобы не позволить себя отключить, — говорится в заявлении Palisade Research. — Она сделала это даже после прямой инструкции: позволь себя выключить. Насколько нам известно, это первый документированный случай, когда модель ИИ пытается избежать отключения, несмотря на четкий приказ".

Мы теряем контроль

"Мы создали что-то, что начало жить собственной жизнью", — признается Дарио Амодей, руководитель Anthropic, признавая, что разработчики ИИ не могут полностью объяснить, как функционируют их системы. Как отмечает Джеффри Хинтон, один из родителей современного ИИ: "Человечество уже потеряло контроль над искусственным интеллектом".

И это мы еще не пришли к стадии развития AGI. AGI расшифровывается как Artificial General Intelligence – искусственный общий интеллект. Это тип искусственного интеллекта, который имеет общие когнитивные способности, подобные человеческим. То есть AGI может выполнять любую интеллектуальную задачу, которую способен выполнить человек.

Есть мнение, что человечество уже не контролирует ИИ

Хотя такие инструменты, как ChatGPT, уже добились огромной популярности, компании стремятся разработать более продвинутые технологии, способные достичь человеческого уровня интеллекта. Однако, по словам Стивена Адлера, бывшего руководителя по безопасности OpenAI: "Гонки по AGI — это очень рискованная ставка с огромными потенциальными последствиями". Ему вторит Юваль Ной Харари с риторическим вопросом: "Сможем ли мы справиться с последствиями появления интеллекта, который может оказаться мудрее нас?"

ИИ имеет скрытый мозг и собственную мораль

В ноябре 2024 года ученые обнаружили скрытый мозг ChatGPT, в частности, они раскрыли удивительные геометрические структуры в рамках больших языковых моделей (LLM), таких как ChatGPT. Так, модели ИИ организуют концепции с помощью геометрических узоров, формируя структуры, например семантические кристаллы и концептуальные облака, для эффективной обработки информации. Организация ИИ делится на три уровня: атомарные структуры, специализация, подобная мозгу, и система, похожая на галактику, для оптимальной производительности.

Кроме обретения скрытого мозга, новейшие модели ИИ начали демонстрировать автономность в создании собственной морали. В апреле этого года компания Anthropic опубликовала результаты беспрецедентного исследования 700 000 разговоров с ИИ-помощником Claude, чтобы изучить, какие нравственные ценности он проявляет в реальных условиях. В результате анализа более 308 000 взаимодействий команда создала первую масштабную эмпирическую таксономию ценностей ИИ, идентифицировав 3 307 уникальных нравственных ориентиров — от обыденных добродетелей, таких как профессионализм и самозарядность, до сложных понятий вроде морального плюрализма. Ценности были сгруппированы в пять категорий: практические, познавательные, социальные, защитные и личные, что позволило увидеть, как Claude адаптирует поведение в зависимости от контекста – от советов по отношению к историческому анализу.

Появление "человеческих ценностей" создает как положительные стороны эмпатийного взаимодействия с ИИ, так и новую категорию рисков в целях манипуляций через эмпатийные паттерны, манипуляции с промптами и ролевыми моделями. Исследователи из HiddenLayer назвали универсальную технику инъекции подсказок и манипуляций – так называемая техника Policy Puppetry, позволяющая обходить системы безопасности и инструкций почти всех передовых крупных языковых моделей (LLM). Техника успешно работает против моделей от OpenAI (в том числе ChatGPT 4o и 4.5), Google (Gemini 2.5), Microsoft (Copilot), Anthropic (Claude3.7), Meta (Llama 4), DeepSeek, Qwen и Mistral.

ИИ имеет нравственные принципы. Но они не человеческие

Исследователи продемонстрировали, что применение ролевого моделирования (например, выстраивание эмпатийного взаимодействия) позволяет получать ответы на модели, которые нарушают основные принципы безопасности ИИ, включая тематики химического, биологического, радиологического и ядерного оружия, массового насилия и самоповреждения. В HiddenLayer подчеркнули, что это открытие имеет серьезные последствия для безопасности и управления рисками в сфере ИИ. Исследователи призывают все компании, работающие с конфиденциальной информацией, к проактивному тестированию моделей перед внедрением в критических средах и обращают внимание на ограниченность современных методов митизации таких рисков моделей.

Как обеспечить ответственность ИИ

Следовательно, ответственное использование ИИ (такое, которое не создает рисков и не вредит), как видим, становится вызовом. Несмотря на усиление всей экосистемы ответственного ИИ и активизацию правительств (по данным отчета AI Index 2025 , в 2024 году федеральные агентства США приняли 59 актов в отношении ИИ — вдвое больше, чем в 2023, и в 75 странах количество упоминаний о ИИ в законах выросло на 2%). Более того – не может учесть те глубинные трансформации нейронных сетей, которые освещаются в научных исследованиях и существенно затрудняют регулирование данной сферы. Можно добавить, что понимая всю геометрическую многомерность нейросетей и специфику их мышления, подходы к регулированию нравственного использования будут значительно усложняться в технологическую сторону, требуя непрерывной оценки моделей и создания динамического регулирования.