Власти Китая обязывают проверять безопасность всех служб, основанных на искусственном интеллекте

китай, ши
Службы искусственного интеллекта должны быть прозрачными по поводу данных и алгоритмов

В Китае потребуют от компаний проводить проверки безопасности генеративных служб искусственного интеллекта, похожих на ChatGPT, прежде чем им будет разрешено работать, поскольку в Управлении киберпространства Китая возникают определенные сомнения в ботах, представленных крупнейшими технологическими компаниями страны.

Поставщики услуг должны гарантировать, что содержимое точное и уважает интеллектуальную собственность, а также не дискриминирует и не угрожает безопасности. Операторы искусственного интеллекта также должны четко маркировать созданный искусственным интеллектом контент, сообщает Вloomberg.

Отмечается, что требования Управления киберпространства дополняют попытки Пекина регулировать взрывной рост генеративного искусственного интеллекта после того, как ChatGPT от OpenAI разожгла отрасль в ноябре. Компании от Alibaba Group Holding Ltd. в SenseTime Group Inc. и Baidu стремятся создать окончательную платформу искусственного интеллекта нового поколения для крупнейшего в мире интернет-рынка.

Издание сообщает, что из-за такого решения китайских властей акции Alibaba потеряли большую часть своего первоначального роста во вторник.

Кроме того, китайский регулятор подчеркнул, что службы искусственного интеллекта должны быть прозрачными по поводу данных и алгоритмов, используемых для обучения их крупномасштабных моделей. Пекин также усилил контроль за сохранением конфиденциальности и ценной информацией.

"Поставщики услуг должны предоставлять определенную информацию о данных, используемых при обучении ИИ, включая происхождение, размер и тип данных. Это также требует, чтобы платформы искусственного интеллекта делились базовыми алгоритмами и другими используемыми технологиями", - говорится в заявлении регулятора.

В феврале представители Министерства науки и технологий заявили, что правительство будет настаивать на безопасном и контролируемом применении услуг ИИ, которые оно считает стратегической отраслью.

В марте итальянское агентство по защите данных запретило ChatGPT за незаконный сбор персональных данных и отсутствие проверки возраста для несовершеннолетних.