НБУ курс:

USD

41,29

+0,07

EUR

44,97

+0,12

Готівковий курс:

USD

41,58

41,55

EUR

45,25

45,12

У Microsoft попереджають, що штучний інтелект може завдати реальної шкоди

У Microsoft попереджають, що штучний інтелект може завдати реальної шкоди
Інструменти штучного інтелекту потрапили під підвищену увагу. Фото: Рixabay

Головний економіст корпорації Microsoft Майкл Шварц вважає, що штучний інтелект буде небезпечним у руках недобросовісних людей.

За словами Шварца, Microsoft працює над встановленням захисних меж, щоб зменшити потенційну небезпеку від інструментів ШІ. Компанія вже використовує ChatGPT OpenAI у своєму пошуковому продукті Bing, а Google випустив свого конкурента Bard chatbot у березні, пише Вloomberg.

"Я впевнений, що штучний інтелект буде використовуватися поганими акторами, і так, він завдасть реальної шкоди. Це може завдати великої шкоди спамерам через вибори тощо", — сказав Шварц.

За його словами, штучний інтелект однозначно повинен регулюватися, але законодавці повинні бути обережними та не чекати, поки технологія не завдасть реальної шкоди.

Шварц зазначив, що незважаючи на ризики, ШІ може допомогти зробити людей більш продуктивними, сказав він. ШІ революціонізує роботу більшості компаній, але для цього потрібен час. 

Очікується, що штучний інтелект стане ключовим рушієм турбулентності на глобальних ринках праці та зіграє роль у змінах майже чверті робочих місць у всьому світі  

Інструменти штучного інтелекту потрапили під підвищену увагу, оскільки їх використання стрімко зросло в останні місяці після дебюту ChatGPT. Політики намагаються тиснути на компанії, щоб вони запровадили запобіжні заходи щодо нової технології.

Виконавчі директори Google, Microsoft, OpenAI і Anthropic компанії Alphabet були викликані в Білий дім на зустріч з віце-президентом Камалою Харріс і вищими посадовими особами адміністрації, щоб обговорити ключові питання безпеки штучного інтелекту.

Минулого місяця адміністрація Байдена заявила, що шукає можливості здійснення заходів звітності систем штучного інтелекту.