- Категорія
- ІТ та Телеком
- Дата публікації
- Змінити мову
- Читать на русском
У ЄС вимагають маркувати весь контент, вироблений штучним інтелектом
Компанії, які розгортають генеративні інструменти штучного інтелекту, такі як ChatGPT і Bard, що можуть генерувати дезінформацію, повинні позначати такий контент як частину своїх зусиль із боротьби з фейковими новинами.
Про це заявила заступниця голови Єврокомісії Віра Йоурова, пише Reuters.
Зазначається, що в ЄС зростає занепокоєння щодо можливого зловживання технологією штучного інтелекту та ймовірності того, що зловмисники та навіть уряди можуть використовувати її для отримання дезінформації.
"Підписанти, які інтегрують штучний інтелект у свої сервіси, такі як Bingchat для Microsoft, Bard для Google, повинні забезпечити необхідні гарантії, аби ці сервіси не могли використовуватися зловмисниками для створення дезінформації", — сказала Йоурова.
Підписуйтеся на YouTube-канал delo.uaВона додала, що підписанти, які мають сервіси з потенціалом для поширення дезінформації, створеної штучним інтелектом, повинні, у свою чергу, запровадити технологію для розпізнавання такого контенту та чіткого позначення для користувачів.
Такі компанії, як Google, Microsoft і Meta Platforms , які підписали Кодекс практики ЄС щодо боротьби з дезінформацією, повинні повідомити про запобіжні заходи, вжиті ними до липня, сказала Юрова.
Вона також попередила Twitter, який минулого тижня вийшов з Кодексу практики ЄС, що соціальну мережу очікує ретельна перевірка.
"Вийшовши з Кодексу, Twitter привернув багато уваги, і його дії та відповідність законодавству ЄС будуть ретельно та терміново перевірені", — сказала Йоурова.
Зауважимо, в ЄС завершують розробку нових правил щодо штучного інтелекту, але вони викликають занепокоєння у генерального директора OpenAI Сема Альтмана. Він попередив, що компанія може припинити надавати послуги на європейському ринку у відповідь на регулювання ШІ.
Раніше депутати Європарламентупідтримали широкий набір правил, які увійдуть до європейського закону про штучний інтелект.
Джерело фото: ua.depositphotos.com