Как и когда в Украине может заработать регулирование искусственного интеллекта. Рассказывает Анна Булах из Respeecher

Анна Булах рассказывает о перспективах регулирования ИИ в Украине. Источник: Delo.ua
Анна Булах рассказывает о перспективах регулирования ИИ в Украине. Источник: Delo.ua

Недавно Минцифры обновило состав комитета по искусственному интеллекту (ИИ). Сейчас туда вошли 53 отраслевых специалиста, работающих в бизнесе, образовании, ведомствах. В ближайшее время эксперты должны помочь Минцифры разобраться в важном вопросе: каким образом в Украине должно выглядеть регулирование искусственного интеллекта.

Так стоит ли регулировать ИИ во время войны? Какая модель регулирования наиболее перспективна для нашей страны? Сколько времени нужно для разработки соответствующего законодательства? Об этом в интервью Delo.ua рассказывает Анна Булах, глава по этике ИИ и партнерства в Respeecher и член комитета ИИ при Минцифры. В комитете она занимается двумя направлениями: регулирование искусственного интеллекта и ИИ в секторе безопасности и обороны.

Спикер около 10 лет работала в политиках безопасности и обороны за рубежом. В частности, в Чехии это был Пражский институт исследований безопасности при МИД, в Эстонии – Международный центр обороны и безопасности при Минобороны.

В 2016-2017 годах эксперт запускала проект "Стойкая Украина" от Эстонии. Экспертка занималась темой информационной безопасности, кибербезопасности.

В 2017-2018 годах Анна Булах вернулась в Украину и присоединилась к технологическому сектору. Тогда она работала в таких направлениях, как борьба с дезинформацией в режиме онлайн, а также искусственный интеллект в разрезе безопасности технологии.

Также Булах работала в известном украинском приложении Reface. Проект относится к синтетическим визуальным медиа.

Сейчас Анна работает в Respeecher. Этот проект также относится к синтетическим аудиальным медиа. То есть в продукте используется голос.

Расскажите о синтетических медиа. Какие вопросы вы решаете в таких проектах?

– Сейчас в синтетических медиа я сконцентрирована на работе в двух направлениях.

Первое. Я занимаюсь вопросами настройки внутренней безопасности. Моя работа не связана с нравственностью в прямом смысле, но технологии должны быть безопасными. Это важный аспект, поскольку технологии могут быть задействованы против людей.

К примеру, кто-то может попытаться использовать голос или лицо без разрешения человека. Поэтому специалисты должны разработать такие процессы, которые позволят противодействовать дипфейкам и отслеживать попытки кражи личных данных.

Второе. Я занимаюсь восстановлением кооперации между компаниями, которые помогают создать лучшие практики в разных направлениях. В частности, сейчас много сотрудничаю с Adobe, Microsoft.

Как правило, технологические компании быстро нарабатывают такие практики, поскольку они понимают, где технология может стать опасной. Такие практики потом могут стать базой для создания регулирования ИИ со стороны государства.

Хочу отметить, что регулирование должно строиться именно на базе публично-частного партнерства, именно тогда оно может быть эффективным. Почему? Считаю, что регулирование вокруг технологий не может создаваться централизованно и спускаться сверху. Ведь инновации создают именно технологические компании, поэтому они знают лучшее, что происходит на рынке.

С появлением ИИ мир заговорил об угрозах этой технологии для общества и необходимости его регулирования. В частности, люди не хотят потерять рабочие места. Действительно ли ИИ может стать угрозой человечеству?

– Давайте разберем, что же такое искусственный интеллект. Для этого следует понять, чем именно ИИ отличается от обычных линейных алгоритмов. Это очень быстрая обработка данных и быстрая автоматизация решений. То есть ИИ очень быстро учится на больших массивах данных, на наших исторических решениях. Поэтому важно, чтобы люди наблюдали за всеми этими процессами и контролировали их для уменьшения рисков.

Идём дальше. Люди опасаются, что искусственный интеллект оставит их без работы. Но это неправда. К примеру, есть такая профессия как актер. В синтетических медиа можно применить технологии и позволить такому актеру заговорить разными голосами: мужским, женским, детским. Таким образом, человек может получить больше проектов для работы. То есть автоматизация процессов предоставляет больше возможностей.

Если человек сможет адаптироваться к изменениям на рынке труда и научится использовать технологии, он станет более конкурентоспособным. Такой путь должны выбрать все, кто хочет стать успешным и эффективным - люди, компании, правительства.

Иными словами, с исторической точки зрения технологические инновации всегда приводили к переосмыслению роли человека в труде. Как раз на этом этапе мы находимся. Поэтому люди должны понять, что условия работы могут измениться. Но я не верю в то, что ИИ сможет заменить людей. В этом вопросе я всегда остаюсь оптимистом.

А если говорить о защите приватных данных? Насколько здесь есть опасность со стороны ИИ?

– В этом направлении есть вызовы, которые еще предстоит решать с помощью регулирования. Как я уже говорила, индустрия ИИ базируется на изучении больших объемов данных. Много информации остается в публичном пространстве. Данные также могут использовать в целях обучения искусственного интеллекта. Поэтому здесь очень тонкие моменты по вопросу конфиденциальности. Таких историй может быть много. Давайте приведу пару примеров.

Первая история. Мы с вами разговариваем, вы записываете мой голос. Дальше он появится на YouTube. Тогда кто-то может создать модель моего голоса без разрешения. Это уже нарушение моих прав как человека на приватность.

Вторая история. Кто-то решил задействовать мой голос и создать песню или сказку. Также моего разрешения для этого никто не спрашивал. Здесь уже есть проблема нарушения интеллектуальных прав.

К сожалению, сегодня все эти моменты не подпадают под регулирование ни в одной стране мира. Так что пока не ясно, как люди могут защитить свои права на приватность с законодательной точки зрения.

Какие вызовы ИИ создал в направлении кибербезопасности?

– С появлением искусственного интеллекта кибербезопасность получила много вызовов. В частности, это:

  • создание информационных месседжей с помощью языковых моделей.
  • создание дипфейков для информационных операций.
  • автоматизация информационных кампаний.

Как это работает? В секторе безопасности могут существовать два подхода:

1. Сам алгоритм принимает решение автоматизировано для разных задач.

2. Человек использует различные технологии, в частности синтетические медиа, и запускает информационные компании.

То есть, ИИ позволяет быстро автоматизировать любые процессы. И это очень серьезный вызов для кибербезопасности любой страны.

Давайте поговорим об иностранном опыте. В мире пытаются решить вопросы регулирования ИИ. Как это происходит?

– Еще несколько лет назад регулирование ИИ фактически не существовало в мире. Поэтому компании должны были начать этот процесс, чтобы выработать лучшие практики, которые помогли бы не использовать технологии против человека. Как это происходило? Международные компании стали сотрудничать друг с другом.

В частности, есть такой классный проект Content Authenticity Initiative. Я с ними работаю с 2019 года. В рамках этой инициативы мы разработали новый стандарт, как подписывать метаданными каждый цифровой контент. Это позволяет людям в инструментах для создания контента или на таких платформах как Twitter увидеть, что определенный контент был частично или полностью создан ИИ. Этот подход решает проблему маркировки такой информации.

Также с 2020 года мы с другой международной инициативой Partnership on AI отработали ответственные практики, как использовать в синтетических медиа.

То есть все международные компании разрабатывают актуальные практики для безопасного использования технологий без привлечения правительств. Этот сектор экономики всегда развивается следующим образом:

  • Сначала компании быстро двигаются, захватывают рынок, охватывают пользователей.
  • Затем эксперты и медиа понимают, что технология расширяется, забирает рынок, и это создает определенные проблемы безопасности.
  • После этого регулятор подключается, поскольку понимает, что нужно создавать законодательную базу.

Надо понять, что сначала идет инновация, затем адаптация новой технологии к рынку. Затем в западных компаниях подключаются соответствующие департаменты, занимающиеся направлением безопасного использования технологий. Кстати, такая практика давно существует за границей. Но в Украине тоже начинают использовать такие подходы.

Зарубежные страны имеют разные подходы для регулирования ИИ. В инфографике Анна Булах представила видение создания законодательной базы в ведущих регионах мира.

В мире используют разные подходы для регуляции ИИ. Источник: интервью Delo.ua

За границей одни страны идут по пути централизованного регулирования ИИ, а другие страны выбирают принцип публично-частного партнерства?

- Именно так. В ЕС избрали централизованный подход в регулировании. Там создано законодательство по защите персональных данных. Вокруг него строится другая законодательная база для ИИ. В частности:

  • Есть закон DSA Digital Service Act, регулирующий работу таких платформ, как Facebook, Twitter и т.д.
  • Имеется регулирование по сбору данных Data Act.
  • Есть законопроект для ИИ – AI Act. Сейчас это регулирование отстраивается по уровням риска: самый высокий, средний, самый низкий. Сам закон может быть принят в 2024 году.

В отличие от ЕС, в США и Великобритании применен принцип партнерства. То есть, где-то в течение пяти лет бизнес разработал практики для безопасного применения технологий. Теперь эти основы заложены в законодательном регулировании стран.

Недавно Минцифры собрала представителей комитета по ИИ при ведомстве, чтобы обсудить создание соответствующего регулирования в Украине. Есть ли в экспертных кругах понимание, какой подход для разработки законодательства наиболее приемлем?

- Рабочая группа по вопросам ИИ при Минцифры была создана недавно. Поэтому возможности регулирования в Украине эксперты планируют изучать где-то до конца сентября. В частности, нужно разобраться, по какому плану Украина должна двигаться по созданию регулирования для ИИ. Для этого необходимо определить цели, как это в свое время сделали другие страны мира. Здесь я вижу три ключевых задачи.

Первое. Украина должна смотреть на ИИ через призму безопасности и национальные интересы. То есть страна должна поддерживать инновации в технологическом секторе, особенно в направлении обороны и безопасности.

Второе. Украина должна учитывать тренды регулирования ИИ не только в нашей стране, но и за границей. Дело в том, что технологии быстро развиваются во всем мире, поэтому правительства внедряют регулирование по ИИ. Поэтому украинское законодательство должно адаптироваться к стандартам ЕС, США, других стран. Это поможет украинским компаниям, производящим продукцию на экспорт, быстрее и эффективнее выходить на зарубежные рынки. Такой подход усилит конкурентоспособность украинского ИИ на международном уровне.

Третье. Украина должна заниматься такими вопросами, как защита конфиденциальности и защита прав человека. Это важно, поскольку люди должны безопасно использовать технологии.

То есть, Украина должна создавать собственное законодательство? Как тогда наша страна может сделать технологии безопасными для людей?

- Хочу подчеркнуть, что Украина может создать базовое регулирование ИИ, не копируя опыт иностранных государств, но нужно адаптировать наше законодательство, в частности, под стандарты ЕС. И это лучший путь, поскольку у нашей страны есть мощная экспертиза и большой опыт в вопросах диджитализации.

Чтобы украинское регулирование ИИ стало эффективным, необходимо внедрять принципы безопасной работы технологий на уровне частных компаний. Для этого необходимо построить так называемый sandbox, где разработчики могут тестировать свои продукты и решения до запуска на рынок. В частности, речь идет о проверке инновации компаний на этичность, на пристрастность моделей, на риски дезинформации и т.д. Это важный аспект, поскольку пользователь может написать ИИ какие-либо запросы, а ИИ может выдать какую-то отрицательную, неверную информацию. Такие риски следует исключать сразу.

В общем, все эти проблемы должно решать соответствующее регулирование ИИ. Поэтому правительство и компании в рамках публично-частного партнерства должны создать своеобразные гайдлайны с пояснениями, где будут ответы на любые вопросы:

  • как работать на рынке ЕС, США.
  • как за границей решается проблема конфиденциальности данных.
  • как правильно сделать технологии безопасными для людей и т.д.

Такой подход поможет не только сделать ИИ безопасными для людей, но позволит компаниям правильно отстраивать бизнес-процессы для продвижения инноваций за рубежом.

Можете рассказать на примерах, когда технологический бизнес игнорировал законодательство и получил из-за этого большие проблемы?

- Недавний пример – история с Чат GPT. OpenAI решил быстро запустить свой продукт, поэтому компания не проверила, могут ли возникнуть риски в ЕС. А там нельзя использовать данные частных пользователей. Италия и Ирландия заблокировали Chat GPT, потому что OpenAI собирала данные без разрешения. Как результат, первоначально компания создала себе большой рынок, но быстро начала его терять. Вот в чем заключалась проблема с Chat GPT.

Минцифры с экспертами уже обсуждали такие подходы к созданию регулирования ИИ в Украине: AI Act ЕС, британская модель, индуктивный подход, собственная законодательная база. В инфографике Анна Булах представила плюсы и минусы этих вариантов регулирования ИИ.

Украина может использовать разные модели регулирования ИИ. Источник: интервью Delo.ua

Как Украина может регулировать ИИ в секторе военных и оборонных технологий во время войны? С одной стороны, необходимо поддерживать военные стартапы, с другой – существуют риски кибервойны и другие опасности.

- В данном случае нам нужно использовать принцип зонирования: каким должно быть регулирование ИИ во время войны и после победы.

Во время войны мы планируем разработать законодательную базу, которая не будет мешать использованию инноваций и технологий ИИ для победы.

Но после войны регуляция ИИ должна помочь Украине и дальше усиливать демократичность. Поэтому уже сейчас эксперты в комитете по вопросам ИИ при Минцифры хотят создать видение: как в мирное время государство должно защищать права человека, в частности, на конфиденциальность, ведь технологии сбора данных активно развиваются.

Почему это важно? Смотрите, существует технология распознавания лица. В частности, граждане могут попадать на улицы в объективы камер. Эти данные власти могут собирать и использовать в разных целях. К примеру, для отслеживания ДРГ. Это необходимо для победы. Но также есть риски, что массивы данных могут попасть в руки преступников.

Именно поэтому возникает вопрос: как эти разработки будут задействованы после победы в Украине, которая является демократическим государством? Важно, чтобы все процессы стали прозрачными и понятными. Общество должно внимательно следить: как правительство использует технологии контроля населения и сбора данных. Власти должны отчитываться перед людьми и предоставлять всю необходимую информацию, поскольку у украинцев есть право на защиту личных данных и конфиденциальность.

Есть ли понимание, сколько времени потребуется для создания в Украине законодательной базы для ИИ? Или уже определены условные дедлайны?

– Сейчас у нас есть окно возможностей. Один из них – это AI Act. По предварительным оценкам этот закон могут проголосовать в марте 2024 года. Украина как потенциальный член ЕС должна предоставить свои предложения к этому документу до конца 2023 года.

Зачем нам это? Мы – инновационная страна. Многие страны ЕС не так развиты в технологическом плане. Мы понимаем многие риски, которые они не понимают. Поэтому важно делиться своим опытом.

Страны ЕС уже представили много комментариев к AI Act. Дело в том, что в Европе пока нет консенсуса относительно того, как должно строиться регулирование ИИ. Каждая страна преследует свои интересы. К примеру, Испания хочет запустить больше американских компаний на свой рынок ИИ. Для этого они инвестировали много денег в технологический сектор страны и это первая страна, которая запустила сэндбокс. Поэтому страна стремится сочетать развитие ИИ рынка с привлечением технологий из США с  гармонизацией со взглядами ЕС и поддержкой бизнеса в предоставлении безопасной среды для тестирования решений на базы ИИ. Также у ЕС есть другой блок стран, которые наоборот лоббируют жесткое регулирование ИИ. Так каким будет в результате AI Act – станет известно через некоторое время.

В целом, когда в ЕС будет проголосована AI Act, правительства стран получат еще два года, чтобы адаптировать свое законодательство и запустить национальные рынки в новых условиях. Поэтому этого времени будет достаточно, чтобы Украина начала делать первые шаги в создании культуры публично-частного партнерства, саморегуляции на основе правил, приближенных к ЕС . Также мы должны объяснять, как ИИ будет влиять на безопасность граждан.