Искусственный интеллект и кибербезопасность: помощь или угроза

Почему в захвате мира помощи от компьютера ждать не стоит, а вот в защите от киберпреступников — вполне

Искусственный интеллект, машинное обучение, нейросети… Пресса последнее время пестрит заголовками вида: "Как искусственный интеллект поможет спасти планету", "Робот София отказала Уиллу Смиту в его ухаживаниях", "Стивен Хокинг: Искусственный интеллект убьет цивилизацию". Производители смартфонов делают громкие заявления об использовании специализированных нейропроцессоров в своих флагманских устройствах. Давайте разберемся, что это за технологии и "кто такая" робот София.

Интеллект — это прежде всего способность обучаться, адаптироваться под изменяющиеся условия, делать обобщения и применять полученные знания на практике.

К искусственному интеллекту (или сокращенно — ИИ) на сегодня относят алгоритмы, отличительным свойством которых является то, что они могут "накапливать опыт" и таким образом решать некоторые задачи c неформализованными условиями, чего не способна сделать ни одна сколь угодно производительная, но жестко запрограммированная компьютерная система.

Конечно, современным ИИ под силу пока только отдельные узкоспециализированные области, хотя следует отметить, справляются они с ними уже гораздо лучше самих людей. Здесь уместно вспомнить Deep Blue, который победил чемпиона мира по шахматам Гарри Каспарова.

При этом можно с уверенностью говорить, что искусственный интеллект на сегодня не только играет в шахматы, но и применяется на практике в очень многих сферах человеческой жизни.  

Так, всем известные голосовые помощники Siri от Apple и GoogleAssistant, сервис поиска по изображению в популярном браузере Google Chrome — это ИИ. С успехом искусственный интеллект начал применяться в современной медицине для диагностики заболеваний, в банковской сфере — для прогнозирования рисков страховой деятельности и в игре на бирже. В конце 2017 года Facebook заявил об использовании искусственного интеллекта для выявления суицидальных намерений пользователей соцсети и оказания им неотложной поддержки, а известная пивоваренная компания Carlsberg — даже для создания новых сортов пива. И, конечно же, применяется ИИ военными. Например — в системах ПВО для распознавания целей в условиях активных помех.

Что же могут предложить современные технологии и разработки в области искусственного интеллекта для обеспечения кибербезопасности?

Ближайший очевидный вариант реализации — это применение нейронных сетей в системах обнаружения длительных целенаправленных атак. Например, большинство современных систем обнаружения сетевых вторжений (IDS/IPS-системы) базируются на сигнатурном принципе распознавания угроз. Потому даже незначительные вариации в реализации механизма атаки или растягивание его во времени часто приводят к ее успешной реализации. Если в качестве интеллектуального ядра системы защиты использовать самообучающийся алгоритм — ошибок детектирования может быть на порядок меньше.

Системы на базе ИИ смогут эффективно применяться для фильтрации спама ("сисадмины облегченно вздыхают"), обнаружения корпоративного мошенничества ("безопасники радостно потирают руки"), выявления неизвестных malware ("разработчики антивирусов испуганно вздрагивают") и многих других задач.

В перспективе же элементы ИИ, уже сейчас присутствующие в ряде отдельно взятых классов решений по кибербезопасности, будут иметь возможность объединяться в единую систему и смогут обеспечить значительный качественный рывок в части повышения защищенности корпоративных ИТ-инфраструктур в целом, на всех уровнях.

Теперь давайте обратимся к "темной стороне" силы технологий и посмотрим, какие новые угрозы может принести искусственный интеллект, попавший "не в те руки".

Здесь, к сожалению, все предельно просто. Можно быть уверенным, что он в эти "руки" попадет. Как и любая другая технология, ИИ — прежде всего инструмент. Никто ведь не обвиняет пистолет в том, что он стреляет. Так и современные технологии: применялись и будут применяться во зло до тех пор, пока будут существовать заинтересованные в этом люди. С помощью нейросетей уже сейчас есть возможность подделывать видеоролики, что еще лет 5 назад казалось в принципе невозможным. Пока это относительно "невинные шалости" с использованием лиц известных актеров в видео неприличного содержания. С развитием технологий это может привести к колоссальному по масштабам замусориванию глобальной сети фейками и к появлению подделок, чрезвычайно трудно отличимых от реальных новостей — детально проработанных, политически мотивированных, способных вызвать экономические или социальные последствия.

Несмотря ни на что, наличие ИИ в современном мире уже факт, и сфера кибербезопасности, всегда находящаяся "на острие", является одним из основных испытательных полигонов новой технологии.

А что же "София"?

Компьютерные системы на базе ИИ действительно быстрее людей обрабатывают данные, имеют практически мгновенный доступ к большим массивам данных, не имеют "привычки" отвлекаться. У многих сразу всплывают ассоциации со SkyNet и Терминатором… Однако между сказкой и реальностью всегда есть различие, не позволяющее "сказкам становиться былью". Так, в действительности у ИИ, в отличие от людей, нет кое-чего очень важного: они не способны ставить задачу.

Даже в рассуждениях профессора из Оксфорда, автора книги "Искусственный интеллект. Этапы. Угрозы. Стратегии" Ника Бострома, ключевым источником угрозы в "восстании машин" являются люди. В его известном мысленном эксперименте люди создают сверхмощный ИИ, ставят ему единственную задачу — производство скрепок — и в итоге он превращает весь мир, включая и нас с вами, в скрепки. Самым важным в этой умозрительной конструкции является как раз раздел "постановки задачи": ее ставят люди.

Поэтому робот София, "отвечающая" на вопросы журналистов, "посещающая" заседание ООН и зрелищно позирующая перед камерами — пока прежде всего дорогая игрушка, своего рода инновационный медиапроект.