НБУ курс:

USD

41,41

+0,05

EUR

46,12

+0,12

Наличный курс:

USD

41,80

41,72

EUR

46,60

46,44

ТОП 5 социально-этических трендов ИИ

ТОП 5 социально-этических трендов ИИ
Иллюстрация сгенерирована на FLUX.1 Black Forest Labs с помощью детального промпта без модификаций

Тренд #1 — Массадопшн ИИ

В последний год каждый из нас стал замечать ИИ в своей повседневной жизни. Сначала – на уровне разговоров с друзьями, потом – на уровне тестирования Midjourney и ChatGPT, затем – на уровне использования ИИ-инструментов для повышения производительности бизнеса. Сегодня глобальные корпорации платят до 200 тыс. долларов в год за пользование лицензионным Microsoft Copilot (а некоторые уже даже отказываются из-за переоцененности ИИ и нехватки функционала). Начинается использование ИИ в стратегической инфраструктуре (железные дорогиздравоохранение и defence - tech), госинституциях (например, полицейские в Оклахома-Сити начали использовать ИИ-чатботы для написания отчетов) и социальной инфраструктуре (с сентября стартуют "безучительские" классы частной школе Англии).

Тренд #2 — Этическое введение ИИ без ущерба человечеству и окружающей среде

Еще один очень важный тренд связан с этикой введения ИИ. Так, университеты бьют вспышкой относительно того, что массовое использование ИИ учениками и студентами повышает риск снижения уровня подготовки кадров. В то же время, на рынке труда уже происходят изменения – ИИ позволяет оптимизировать рутинные операции и это ведет к сокращению людей. Кроме этого, согласно исследованиям, массовое использование соискателями работы ИИ-сервисов приводит к существенному снижению качества заявок.  

Если рассмотреть этичность использования ИИ в государственном секторе или социальных учреждениях, здесь возникает очень спорный вопрос. Попытайтесь ответить себе – хотите ли вы, чтобы непроверенная временем технология выдавала вам визу, решала, оказывать ли социальную помощь или кредит и определяла ваш кредитный рейтинг. Такие дебаты, например, сейчас проходят в Аргентине , где правительство намерено использовать ИИ для целей сокращения преступности, и в Англии, где   принято решение, что правительство должно публиковать в открытом реестре ИИ , которые намерено использовать, для предварительного обсуждения представителями общества и профессионального комьюнити.

Тренд #3 — Потребность в предоставлении равных прав (diversity)

Массадопшн ИИ провоцирует определенные социальные риски. К примеру, связаны с равными правами. По данным Института Кеннана, почти 80% работающих женщин занимают должности, подпадающие под автоматизацию с помощью ИИ, по сравнению с 58% мужчин. Эти рабочие места не ликвидирует ИИ, но их будут занимать люди, владеющие этой технологией — на данный момент в основном мужчины. Еще большее беспокойство вызывает то, что, по данным Coursera, женщины недостаточно представлены в обучении навыкам, связанным с ИИ — втрое меньше женщин, чем мужчин, регистрируются на соответствующие курсы. Следовательно, тема адаптации женщин к эре ИИ должна стать приоритетом.

Тренд #4 — Законодательная зрелость и поиск сбалансированного регулирования

ИИ-технология похожа на появление Интернета в 90-х. Она имеет такой же потенциал кардинально изменить нашу жизнь и повлиять на человечество. К тому же, регулирование ИИ (AI - governance) является частью регулирования Интернета (Internet-governance). Так что сейчас происходит интеграция растущей экосистемы регулирования ИИ с имеющейся экосистемой регулирования Интернета (со всеми сопутствующими регуляциями как GDPR, сфокусированный на защиту данных).

Еще год назад регуляторы мира только начинали углубляться в детали регулирования ИИ. Существовали лишь общие рекомендации таких важных учреждений как OECD по этическому внедрению этой технологии и не было общего мнения, как регулировать ИИ. С ноября прошлого года ситуация коренным образом изменилась благодаря проведению Блетчли саммита в Англии и подписанию Блетчли декларации (подписантом которой является и Украина), которая положила начало кооперации мировых регуляторов.   в отношении ИИ. С тех пор почти все ключевые юрисдикции и регуляторы опубликовали свое видение, видение или стратегию, где обозначили общие принципы ИИ-регулирования.

Далее последовало историческое событие – был принят европейский Закон о ИИ (EU AI Act) , который стал первой в мире попыткой регулировать ИИ на базе рисков. Он обсуждает такие нюансы, как пристрастность, этичность, авторское право, прозрачность, конфиденциальность. В нем определяется ключевая роль человека на финальной стадии принятия регуляторных решений о ИИ (т.н. oversight) и речь идет об ответственном внедрении ИИ. Закон предусматривает принятие дополнительных рекомендаций и правил. Поэтому регуляторы переходят в фазу разработки подходов сбалансированного ИИ-регулирования (во взаимодействии с участниками профессионального рынка), которое ограничило бы риски для пользователей ИИ, оставляя возможности для развития технологии.

Сегодня именно этот баланс вызывает самые большие дебаты в обществе. Следует отметить, что принятие европейского Закона о ИИ ( EU AI Act ) было невероятно сложным именно по этой причине. На очереди – амбициозная попытка Калифорнии регулировать крупномасштабные системы ИИ (Проект 1047 сенатора Скотта Вайнера), которая вызвала волну обсуждений и пока дебаты закончились уступками политиков в пользу сбалансированного регулирования.

Тренд #5 — Образование ИИ-инфраструктуры

На фоне фундаментальных законодательных инициатив мы наблюдаем сопутствующий тренд по созданию глобальной унифицированной управленческой и регуляторной инфраструктуры, что будет способствовать безопасному внедрению ИИ. Например, появление государственных ИИ-офисов/подразделений (или закрепление этого функционала за нынешними), ответственных за разработку государственных планов действий и нишевого регулирования определенных сфер; создание должности ответственного за ИИ служащего (обязательно в штате госучреждений и корпоративного сектора в ряде юрисдикций); а также создание регуляторных песочниц — сред под наблюдением регуляторов, где можно тестировать инновационные идеи без риска для потребителя, в частности ИИ-модели.