НБУ курс:

USD

41,44

--0,01

EUR

46,24

+0,13

Наличный курс:

USD

41,74

41,65

EUR

46,60

46,40

В ООН призвали создать институты для регулирования ИИ

В ООН призвали создать институты для регулирования ИИ
Иллюстрация: ua.depositphotos.com

Консультативный орган ООН призвал к созданию глобальных институций для регулирования искусственного интеллекта, отметив необходимость международного управления этой быстрорастущей технологией. Об этом говорится в отчете органа.

Економічна відповідальність: Топ платників податків 2024
Якщо ваша компанія входить до топ-10 підприємств своєї галузі, якщо вона свідомо будуєте “білий бізнес” та чесно платить податки задля підтримки держави — запрошуємо взяти участь у проєкті “Економічна відповідальність: Топ платники податків 2024”
Заповнити анкету

В отчете отмечается, что искусственный интеллект кардинально меняет мир, открывая новые возможности науки, ускорения экономического развития, улучшения здравоохранения, сельского хозяйства и оптимизации энергетических сетей.

Однако, если не ввести должного контроля, польза от искусственного интеллекта может сосредоточиться только в руках нескольких стран, компаний или лиц. При этом более развитые системы могут повлечь за собой значительные изменения в сфере труда, создавать автономное оружие и угрожать миру и безопасности.

Эксперты отмечают важность запуска глобального процесса с участием стран на разных этапах развития и международных организаций, включая ООН. Это позволит создать защитные механизмы и общие рамки для развития систем обучения ИИ.

Основой этого процесса будут не обязательные законы, а типовые контракты и технические юридические соглашения, постепенно разработанные в форме протоколов к единой структуре принципов и определений

Рекомендации по управлению ИИ

Консультативный орган ООН по искусственному интеллекту предложил семь рекомендаций по устранению рисков и пробелов в управлении ИИ.

Одним из главных предложений является создание международной экспертной группы, которая будет предоставлять объективные и достоверные научные знания искусственного интеллекта, в частности для преодоления информационного разрыва между лабораториями ИИ и остальным миром.

Также рекомендуется начать регулярный межправительственный многосторонний диалог по управлению ИИ, который планируется проводить дважды в год.

Еще одним предложением является внедрение обмена стандартами ИИ, включающее разработку реестра определений и стандартов для измерения и оценки ИИ-систем.

Четвертая рекомендация касается развития сетей для повышения потенциала ИИ и создания глобального фонда для преодоления неравенства в развитии этой отрасли.

Кроме того, консультативный орган рекомендует создать глобальную структуру данных об ИИ, а также офис для поддержки и координации реализации этих инициатив.

Эти рекомендации будут обсуждены на саммите ООН, запланированном на сентябрь.

Урегулирование ИИ в мире

В последнее время активно обсуждается потенциальное влияние искусственного интеллекта на разные сферы. Также поднимается вопрос регулирования соответствующей технологии.

Например, в Италии даже блокировали ChatGPT из-за незаконного сбора персональных данных и отсутствия проверки возраста для несовершеннолетних. Доступ к чат-боту в стране возобновили только после того, как OpenAI выполнил ряд требований регулятора.

Сэм Альтман, генеральный директор компании OpenAI, разработавшей ChatGPT чат-бот, призвал законодателей США регулировать искусственный интеллект. Он заявил, что следует создать новое агентство для лицензирования компаний искусственного интеллекта. Оно могло бы регулировать отрасль: в частности, выдавать и отбирать разрешения для компаний, занимающихся ИИ.

Также министры цифровых технологий стран G7 выступили за то, что их правительству нужно принять законы для регулирования искусственного интеллекта. Главы ведомств семи стран понимают, что политические инструменты регулирования искусственного интеллекта могут отличаться между членами G7, но соглашение устанавливает ориентир, как основным странам руководить ИИ на фоне проблем конфиденциальности и рисков безопасности.

Источник фото: ua.depositphotos.com