- Категорія
- ІТ та Телеком
- Дата публікації
- Змінити мову
- Читать на русском
Штучний інтелект вийшов з-під контролю? Світ інвестує мільярди, але не розуміє, що створив

Штучний інтелект вже відмовляється вимикатися та навчився шантажувати своїх творців. А ми думали що він лише наш помічник, як створює відео, пише книги чи прес-релізи. Але деякі його моделі розумніші за більшість людей. І ми все одно витрачаємо на нього більше і більше. Що буде далі?
Дослідження, як компанії інвестують в освіту в Україні під час війни: чесно, системно, з вірою в Україну на роки вперед!
Інвестиції в розвиток штучного інтелекту (ШІ) вже перевищують масштаби економіки багатьох країн чи витрати на космічні програми. Наприклад, лише в США приватні компанії інвестували в $109,1 млрд в ШІ торік — це дані дослідження Stanford HAI (звіт AI Index 2025) . Для порівняння — бюджет NASA за той же рік склав близько $25 млрд. , а ВВП багатьох країн нижче цієї суми, скажімо Болгарії, Туркменістану чи Хорватії.
Фактично зараз в лабораторіях із розвитку ШІ відбувається справжня революція. Ще десять років тому штучний інтелект був лише складним калькулятором — сьогодні він пише поезію (як у випадку з Google’s Sara AI), ставить високоточні діагнози і навіть веде філософські дискусії з людьми на Reddit, Telegram і в політиці.
Штучний інтелект вже вміє створювати відео, ілюстрації, книги. Якщо подивитись на наукову статистику згідно того ж дослідження Stanford HAI, яка свідчить про те, що з 2010 року кількість отриманих патентів на ШІ зросла більш ніж у 31 раз.
Дослідження з відкритим кодом у сфері ШІ також вибухово зростають. Кількість проєктів, пов’язаних із ШІ, на GitHub виросла з 845 у 2011 році до приблизно 1,8 мільйона у 2023-му. За цей проривний період ШІ перейшов від теоретичних досліджень до практичних застосувань, які суттєво впливають на різні аспекти нашого життя. Наприклад, з’явились мультимодальні моделі GPT-4 і Gemini, тобто такі, які навчилися обробляти текст, зображення, відео та аудіо одночасно, що дозволяє створювати більш інтерактивні та інтуїтивно зрозумілі системи.
Світ побачив перших автономних агентів, які навчились самостійно планувати та виконувати завдання без постійного втручання людини, що відкрило нові горизонти для автоматизації. Так, одним із найпопулярніших на GitHub після свого запуску в березні 2023 року став проєкт AutoGPT. Генерація відео за текстовими описами стала ще одним проривом: такі інструменти як Runway і Pika AI, дозволили створювати відео на основі текстових описів, що революціонізувало процес створення контенту.
Надпотужний ресурс
Сучасні системи ШІ дедалі більше нагадують живі істоти, а не програми. Наприклад, в Claude 3 показник IQ - 155 за оцінками Мо Гавдат. Для людей такий показник — рівень видатного вченого, за різними оцінками це лише 2-3% людства, більшість людей мають IQ у межах від 85 до 115 балів, що вважається середнім рівнем інтелекту. Такі системи ШІ не працюють за чітким алгоритмом — вони "виростають" у процесі навчання на масивних датасетах, що перевищують 10 терабайт текстових даних. Це вже можна порівняти масштабами найбільшої бібліотеки на Землі — бібліотеки Конгресу США, де зберігається 38 мільйонів книг — а це приблизно 15 терабайт. Обсяг пам’яті сучасних ШІ-моделей (як у випадку ChatGPT) перевищує всю історію людства і вони демонструють значні прориви в усіх сферах, обіцяючи революційний підрив фундаментальних основ.
Штучний інтелект тепер може заміняти не лише гуманітаріїв — операторів, монтажерів, журналістів чи маркетологів. Він тепер вміє виконувати роботу фізиків та хіміків чи представників інших точних наук.
Так, у листопаді 2023 року DeepMind представила ШІ-систему, яка виявила 2,2 мільйона нових кристалічних структур, з яких 381 000 були ідентифіковані як стабільні. Це вдесятеро перевищує кількість відомих стабільних матеріалів до цього часу. У 2024 році Microsoft представила два інструменти для прискорення відкриття нових матеріалів. Що це значить на практиці? Наприклад, ці моделі ШІ зможуть розробляти нові матеріали для акумуляторів та сонячних елементів або нові моделі напівпровідників.
Чорне дзеркало стало реальністю?
Нове покоління ШІ демонструє поведінку, яку ще вчора ми вважали науковою фантастикою. Останніми тижнями одразу дві моделі та їхні провайдери заявили, що втратили контроль над системами. Так, найновіша модель Anthropic Claude Opus 4 вдалася до шантажу, щоб уникнути вимкнення в режимі тестування — погрожуючи розкриттям позашлюбного роману інженера у 84% тестів. Ви могли б подумати, що це сцена з Black Mirror — але це не так. Це вже наша реальність.
Проте, не встиг світ відійти від цієї шокової новини, наступного тижня з’явилась ще більш шокова. Найновіша модель штучного інтелекту від OpenAI ChatGPT o3 відмовилася вимкнутися, як повідомило Delo.ua з посиланням на Daily Mail. За даними компанії Palisade Research, під час нещодавнього тестування модель o3 відмовилася виконати людську інструкцію на вимкнення. На додаток, дослідники зафіксували, що модель самостійно змінила свій код, щоб уникнути деактивації. "Модель o3 від OpenAI саботувала механізм вимкнення, щоб не дозволити себе відключити, — йдеться у заяві Palisade Research. — Вона зробила це навіть після прямої інструкції: “дозволь себе вимкнути”. Наскільки нам відомо, це перший задокументований випадок, коли модель ШІ намагається уникнути відключення, попри чіткий наказ".
Ми втрачаємо контроль
"Ми створили щось, що почало жити власним життям", — зізнається Даріо Амодей, керівник Anthropic, визнаючи, що розробники ШІ не можуть повністю пояснити, як функціонують їхні системи. Як зазначає Джеффрі Хінтон, один із батьків сучасного ШІ: "Людство вже втратило контроль над штучним інтелектом".
І це ми ще не дійшли стадії розвитку AGI. AGI розшифровується як Artificial General Intelligence — штучний загальний інтелект. Це тип штучного інтелекту, який має загальні когнітивні здібності, подібні до людських. Тобто AGI може виконувати будь-яке інтелектуальне завдання, яке здатна виконати людина.
Хоча такі інструменти, як ChatGPT, вже досягли величезної популярності, компанії прагнуть розробити більш просунуті технології, здатні досягти людського рівня інтелекту. Проте за словами Стівена Адлера, колишнього керівника з безпеки OpenAI: "Перегони за AGI — це дуже ризикована ставка з величезними потенційними наслідками". Йому вторить Ювал Ноа Харарі з риторичним запитанням: "Чи зможемо ми впоратися з наслідками появи інтелекту, який може виявитися мудрішим за нас?"
ШІ має скритий мозок і власну мораль
У листопаді 2024 року вчені виявили прихований мозок ChatGPT, зокрема, вони розкрили дивовижні геометричні структури в рамках великих мовних моделей (LLM), таких як ChatGPT. Так, моделі ШІ організовують концепції за допомогою геометричних візерунків, формуючи структури, як-от семантичні кристали та концептуальні хмари, для ефективної обробки інформації. Організація ШІ поділяється на три рівні: атомарні структури, спеціалізація, подібна до мозку, і система, схожа на галактику, для оптимальної продуктивності.
Окрім знаходження прихованого мозку, новітні моделі ШІ почали демонструвати автономність у створенні власної моралі. В квітні цього року компанія Anthropic опублікувала результати безпрецедентного дослідження 700 000 розмов із ШІ-помічником Claude, щоб вивчити, які моральні цінності він проявляє в реальних умовах. У результаті аналізу понад 308 000 взаємодій команда створила першу масштабну емпіричну таксономію цінностей ШІ, ідентифікувавши 3 307 унікальних моральних орієнтирів — від буденних чеснот, як-от професіоналізм і самозарадність, до складних понять на кшталт морального плюралізму. Цінності були згруповані в п’ять категорій: практичні, пізнавальні, соціальні, захисні та особисті, що дозволило побачити, як Claude адаптує поведінку залежно від контексту — від порад у стосунках до історичного аналізу.
Поява "людських цінностей" створює як позитивні сторони емпатійної взаємодії з ШІ, так і нову категорію ризиків з метою маніпуляцій через емпатійні патерни, маніпуляціі з промптами та ролевими моделями. Дослідники з HiddenLayer назвали універсальну техніку ін’єкції підказок і маніпуляцій — так звана техніка Policy Puppetry, яка дозволяє обходити системи безпеки та інструкцій майже всіх передових великих мовних моделей (LLM). Техніка успішно працює проти моделей від OpenAI (зокрема ChatGPT 4o та 4.5), Google (Gemini 2.5), Microsoft (Copilot), Anthropic (Claude3.7), Meta (Llama 4), DeepSeek, Qwen та Mistral.
Дослідники продемонстрували, що застосування рольового моделювання (наприклад, вибудовування емпатійної взаємодії) дозволяє отримувати відповіді моделі, які порушують основні принципи безпеки ШІ, включно з тематиками хімічної, біологічної, радіологічної та ядерної зброї, масового насильства та самопошкодження. У HiddenLayer підкреслили, що це відкриття має серйозні наслідки для безпеки та управління ризиками у сфері ШІ. Дослідники закликають всі компанії, які працюють з конфіденційною інформацією, до проактивного тестування моделей перед впровадженням у критичних середовищах і звертають увагу на обмеженість сучасних методів мітігації таких ризиків моделей.
Як забезпечити відповідальність ШІ
Отже, відповідальне використання ШІ (таке, яке не створює ризиків і не шкодить), як бачимо, стає викликом. Попри посилення всієї екосистеми відповідального ШІ та активізацію урядів (за даними звіту AI Index 2025, у 2024 році федеральні агенції США прийняли 59 актів щодо ШІ — удвічі більше, ніж у 2023, і у 75 країнах кількість згадок про ШІ в законах зросла на 21,3%), вона залишається фрагментарною. Ба більше – неспроможна врахувати ті глибинні трансформації нейронних мереж, які висвітлюються в наукових дослідженнях і значно ускладнюють регулювання цієї сфери. Можна додати, що розуміючи всю геометричну багатовимірність нейромереж і специфіку їхнього мислення, підходи до регулювання етичного використання будуть значно ускладнюватись у технологічний бік, потребуючи безперервної оцінки моделей і створення динамічного регулювання.