- Категория
- Новости
- Дата публикации
- Переключить язык
- Читати українською
ИИ уже сливает данные ваших компаний: как минимизировать риски

Благодаря искусственному интеллекту любой человек с базовым навыком поиска может найти много информации о компании — как открытые данные, так и случайно обнародованную информацию. Проблема в том, что сотрудники сами, часто безотчетно, передают важные данные, пользуясь ИИ-инструментами.
Ми збираємо історії тих, хто зробив надскладне, але й найважливіше рішення в житті - стартувати власну справу. Хто розпочав з нуля і вже три роки будує бізнес. Хто повернувся з фронту і занурився в підприємництво. Хто обрав франшизу як старт і зумів розвинути успішну модель.
Спецпроєкт створено за підтримки Visa в Україні
Об этом на SKELAR Security Meetup рассказала Анастасия Войтова, Head of Security Engineering компании Cossack Labs, цитирует Delo.ua.
"Мы уже живем в реальности, где ИИ используют для всего — от психотерапии до написания кода, в том числе и очень чувствительных модулей в продакшене. И вернуть это обратно невозможно. Сейчас задача кибербезопасности — не запрещать использование ИИ, а минимизировать риски и объяснять сотрудникам, что и как можно использовать", — объясняет Войтова.
По ее словам, все, что можно сделать — это смягчать риски: прописать политики, учить людей, объяснять, где и как можно использовать искусственный интеллект, а где — категорически нет. Также она отмечает, что необходимо внедрять псевдонимизацию (замена подлинных данных человека на условные отметки), ограничения для чувствительных проектов и регулярные инструктажи.
"Что касается кибербезопасности — сейчас существует масса слитных баз и данных. К сожалению, в Украине защита персональных данных почти иллюзия: практически на каждого можно составить досье. Поэтому компаниям следует минимизировать последствия, инвестировать в киберзащиту и ограничивать передачу данных внешним AI-сервисам", — добавляет Анастасия Войтова.
Среди решений она называет использование корпоративных инструментов с искусственным интеллектом, например Microsoft Copilot, где история запросов и безопасность контролируются в рамках компании. Остальные сторонние сервисы блокируются на уровне доступов.
"Также следует быть осторожными с коммерческими AI-сервисами — под капотом там часто хаос. Были случаи, когда AI-ассистенты получали доступ ко всему происходящему на экране телефона или компьютера, потому что пользователи давали им все возможные права. Важно настроить многоуровневую защиту: фильтровать исходный трафик, контролировать использование моделей", — подчеркивает Войтова.
Напомним, почти 80% компаний хотят переквалифицировать сотрудников под работу по ИИ.