НБУ курс:

USD

41,25

--0,08

EUR

43,56

--0,13

Готівковий курс:

USD

41,65

41,58

EUR

44,12

43,95

«Це не мій голос», - Тищенко заявив про фейкову інформатаку

Микола Тищенко, народний депутат, партія "Слуга народу"

Нардеп Микола Тищенко відреагував на висвітлену у ЗМІ інформацію щодо його заробітку на колл-центрах

Відкрийте нові горизонти для вашого бізнесу: стратегії зростання від ПриватБанку, Atmosfera, ALVIVA GROUP, Bunny Academy та понад 90 лідерів галузі.
12 грудня на GET Business Festival дізнайтесь, як оптимізувати комунікації, впроваджувати ІТ-рішення та залучати інвестиції для зростання бізнесу.
Забронювати участь

Записи телефонних розмов, на яких людина з голосом, подібним до голосу нардепу від партії Слуга Народу Миколи Тищенка, відверто вимагає мільйони доларів за власну протекцію для незаконних кол-центрів, були розтиражовані провідними медіа країни та телеграм-каналами з мільйонними аудиторіями. 

Сам народний депутат відреагував так: «Це голос – не мій і таких переговорів ніколи не було».

Також Тищенко додав, що подібний на його голос в аудиозаписах був згенерований нейромережею, а шахрайством в кол-центрах займаються технічно підковані молоді люди, які вміють користуватися нейромережами.

Треба зазначити, що технології відтворення голосу, який було б дуже важко відрізнити від голосу справжньої людини, дійсно існують. Наприклад, це вдалося дослідникам з компанії Microsoft. Але це – одна з найсвіжіших розробок, тож код нової моделі штучного інтелекту Vall-E вони ретельно приховують та заявляють, що AI недоступний для громадськості та використовується лише для дослідницьких цілей. Окрім того, розробники запевняють, що завжди є можливість перевірити чи голос справжній. 

«Оскільки VALL-E може синтезувати мову, яка зберігає ідентичність мовця, це може нести потенційні ризики у неправильному використанні моделі, наприклад, підробити голосову ідентифікацію або видати себе за конкретного мовця. Щоб зменшити такі ризики, можна побудувати модель виявлення для розрізнення чи аудіокліп був синтезований VALL-E. Ми також застосуємо принципи Microsoft AI на практиці під час подальшої розробки моделей», — зазначають розробники компанії Microsoft

Таким чином, поки що нейронні моделі не здатні передавати емоції в голосі, робити паузи, імітувати «мичання», або характерні для людей звуки між фразами, такі як протяжне «е», або «а», що може бути доказом справжності розміщених в мережі інтернет аудиозаписів людини з голосом, подібним до голосу депутата Миколи Тищенка.