Влада Китаю зобов’язує перевіряти безпеку всіх служб, які базуються на штучному інтелекті

ші, китай
Служби штучного інтелекту повинні бути прозорими щодо даних і алгоритмів

У Китаї вимагатимуть від компаній проводити перевірки безпеки генеративних служб штучного інтелекту схожих на ChatGPT, перш ніж їм буде дозволено працювати, оскільки в Управлінні кіберпростору Китаю виникають певні сумніви щодо ботів, представлених найбільшими технологічними компаніями країни.

Постачальники послуг повинні гарантувати, що вміст є точним і поважає інтелектуальну власність, а також не дискримінує та не загрожує безпеці. Оператори штучного інтелекту також повинні чітко маркувати створений штучним інтелектом контент, повідомляє Вloomberg.

Зазначається, що вимоги Управління кіберпростору доповнюють спроби Пекіна регулювати вибухове зростання генеративного штучного інтелекту після того, як ChatGPT від OpenAI розпалила галузь у листопаді. Компанії від Alibaba Group Holding Ltd. до SenseTime Group Inc. і Baidu прагнуть створити остаточну платформу штучного інтелекту нового покоління для найбільшого в світі інтернет-ринку. 

Видання повідомляє, що через таке рішення китайської влади акції Alibaba втратили більшу частину свого початкового зростання у вівторок

Крім того, китайський регулятор підкреслив, що служби штучного інтелекту повинні бути прозорими щодо даних і алгоритмів, які використовуються для навчання їхніх великомасштабних моделей. Пекін також посилив контроль над збереженням конфіденційності та цінною інформацією.

"Постачальники послуг повинні надавати певну інформацію про дані, які використовуються під час навчання ШІ, включаючи походження, розмір і тип даних. Це також вимагає, щоб платформи штучного інтелекту ділилися базовими алгоритмами та іншими використовуваними технологіями", — йдеться у заяві регулятора.

У лютому представники Міністерства науки і технологій заявили, що уряд наполягатиме на безпечному та контрольованому застосуванні послуг ШІ, які він вважає стратегічною галуззю.

У березні італійське агентство захисту даних заборонило ChatGPT за незаконний збір персональних даних та відсутність перевірки віку для неповнолітніх.