Краснодар, 22 февраля – Юг Times, Зухра Куб. Почему цифровые технологии одновременно помогают обману и предотвращают его и как найти баланс?

Искусственный интеллект сегодня только развивается, но уже влияет на жизнь в сторону ухудшения безопасности. Так, недавно с помощью дипфейка (методики синтеза изображения или голоса, основанной на ИИ) мошенники смогли завладеть банковским счетом россиянина. В наступившей реальности, когда, общаясь по телефону или видеосвязи, нельзя быть уверенным: на другом конце человек или сгенерированное нейросетью изображение - нужны новые принципы безопасности.

Очевидно, что никто не будет прекращать развитие технологий искусственного интеллекта. 

- Сегодня мировая социохозяйственная система стремительно осваивает шестой технологический уклад. Он связан с такими главными двигателями экономического роста, как цифровые технологии, искусственный интеллект, автоматизация и другие похожие, смежные отрасли. Этот процесс носит объективный характер, так как является следствием непрекращающейся научно-технической революции, - говорит заместитель директора IT-компании «КУБНЕТ» и профессор Института фундаментальных наук КубГТУ Георгий Мишулин. 

Нейросети уже меняют наш мир. И со временем их влияние лишь увеличится. 

- Искусственный интеллект будет иметь значительное влияние на безопасность современного человека - как положительное, так и отрицательное, - уверен IT-MBA профессор Антон Баланов, который руководил продуктами в ВК, ВТБ, Сбере, Госуслугах. - Он может быть использован для улучшения систем биометрической аутентификации, таких как распознавание лиц, отпечатков пальцев, чтобы сделать их более надежными и устойчивыми к подделке. ИИ также может помочь в обнаружении и предотвращении кибератак, автоматизации процессов анализа безопасности и обеспечении раннего предупреждения о потенциальных угрозах. Однако, с другой стороны, развитие ИИ вносит новые вызовы и угрозы в сферу безопасности. Продвинутые технологии могут использоваться для создания фейковых данных, фальсификации изображений, видео, голоса, маскировки личности и эксплуатации уязвимостей в системах безопасности. Это может создавать риски в области цифрового мошенничества или кибератак. 


Каждому по двойнику 

Развитие технологий искусственного интеллекта открывает новые возможности для обмана россиян. Совсем не исключено, что скоро они могут услышать по телефону синтезированные нейросетью голоса близких, которые просят перевести деньги на какой-то счет. 

- Такие технологии уже существуют, - предупреждает Георгий Мишулин. - Все строится на ключевых словах. Речь разбивается на слова и словосочетания, из которых выделяются наиболее характерные. Но для этого нужно не одно общение с человеком. Собирают информацию, обороты речи, эмоции. И сегодня уже возможно смоделировать речь любого из нас. 

В Краснодарском крае в 2023 году правоохранители зарегистрировали 22 тысячи мошенничеств и краж, совершенных дистанционным способом: через интернет, мобильную связь и различные мессенджеры. 

- Скорее всего, программы дипфейка при этом тоже используются, - говорит начальник отдела управления уголовного розыска ГУ МВД России по Краснодарскому краю Евгений Иваненко. - Потому что эта программа находится в свободном доступе. И зачастую злоумышленники созваниваются по видеосвязи с потерпевшими, используя различные мессенджеры. Вряд ли кто-то будет выставлять свое лицо с учетом того, что сейчас есть эта функция. Но доподлинно сказать не могу, потому что на моей памяти не было случаев, когда мы задерживали преступника, а он говорил: «Я пользовался дипфейком, когда звонил». 

Однако, по-видимому, этот вопрос уже назрел. В декабре прошлого года состоялось заседание правительственной комиссии по профилактике правонарушений, которое возглавил министр внутренних дел России Владимир Колокольцев. Правоохранители в том числе обсуждали правовое регулирование цифровой технологии подмены личности. Речь шла о том, как не допустить, чтобы дипфейки использовались в противоправных целях. 

- В других субъектах коллеги сейчас активно обсуждают, что преступники используют искусственный интеллект для подмены голоса, - продолжает Евгений Иваненко. - В Краснодарском крае таких случаев пока не зафиксировано. Но не думаю, что для злоумышленников проблема использовать такие программы, они не из области фантастики. Однако вряд ли это будет настолько распространяться, что когда-нибудь вы услышите по телефону голос родственника, синтезированный мошенниками. Это же целая схема: нужно сначала получить голос вашего близкого человека, потом как-то узнать, кем он вам приходится, дозвониться до вас. Довольно сложно. Проще пользоваться традиционными способами. 

Сегодня правоохранителям сложно противодействовать волнам интернет-мошенничеств, потому что организаторы этого преступного бизнеса, конечные получатели денег зачастую находятся за рубежом. А вот те, кто помогают им с обналичиванием средств на территории нашей страны, часто получают заслуженное наказание. Среди них граждане России и зарубежных государств: в схемах, как правило, задействовано очень много людей. 


Сам себе доктор 

В новых условиях эксперты по IT-технологиям предлагают новые правила безопасности. И как часто это бывает, яд и противоядие имеют один и тот же источник. 

- Уже сейчас разрабатываются и используются нейросети, способные распознавать фишинговые ссылки, выявлять мошеннические транзакции в банках, спам и фейки, - говорит эксперт по нейросетям Валерий Бабенко. - То есть технологичные способы защиты создаются быстро, и таким образом пресекаются множество преступлений с использованием ИИ. Это дает возможность предотвратить утечки данных, сократить материальные потери и избежать фейков. Действительно, дипфейки получили большое распространение. Если же используется поддельное изображение, его следует внимательно изучить: четкость, естественность мимики. Для дипфейков характерны расхождение голоса и картинки.

 - Искусственный интеллект действительно может положительно сказаться на улучшении безопасности по нескольким причинам, - рассказывает генеральный директор компании «КоинКИТ» Виталий Горбенко. - Во-первых, ИИ может обучаться на базе миллионов транзакций (информации), выявляя подозрительную активность и блокируя потенциальные угрозы еще до их реализации. Во-вторых, алгоритмы ИИ могут анализировать поведение в сети в режиме «24 на 7», улавливая даже тончайшие аномалии. В-третьих, искусственный интеллект может адаптировать меры безопасности для каждого пользователя на основе его индивидуального поведения в сети. И, наконец, ИИ анализирует загруженность сети и предсказывает возможные проблемы, обеспечивая бесперебойную и эффективную работу системы. 

При этом опрошенные нами эксперты полагают, что пришло время менять законодательство в соответствии с новыми условиями. 

- Всеобъемлющая цифровизация имеет и свою негативную сторону: персональные данные граждан хранятся везде, где только речь идет о предоставлении разнообразных услуг. Обладание этими данными является главной целью преступников. Они почти всегда опережают технологии защиты, - говорит Георгий Мишулин. 

Тем не менее специалисты в области IT-безопасности склонны спокойно относиться к новым угрозам. 

- Нельзя сказать, что из-за ИИ наступит катастрофа и небывалый рост активности злоумышленников, - уверен ведущий эксперт сервиса аналитики и оценки цифровых угроз ETHIC компании Infosecurity a Softline company Владислав Иванов. - Новые виды мошенничества всегда появляются на фоне развития технологий. Изначально волна преступлений с использованием новых методов будет заметной, но до тех пор, пока большинство пользователей не станут осведомлены о них. Далее, по мере распространения информации о таких схемах, технология дипфейков станет лишь одной из многих схем для обмана. Сравнивая опасность звонка с технологией дипфейка и, например, уже привычного взлома страницы в социальной сети, можно отметить, что в обоих случаях мошенник пытается обмануть пользователя, прикрываясь знакомым лицом. Именно поэтому «старые» и «новые» угрозы не нужно недооценивать - принимать меры для защиты личной информации следует в любом случае. Важно помнить, что мошенники используют различные способы для обмана, однако они не могут получить доступ к памяти человека. Если абонент сомневается в подлинности звонка или сообщения от «знакомого», стоит задать вопросы из своего прошлого, на которые сможет ответить только настоящий человек. Это поможет убедиться в их подлинности и избежать мошенничества. 

Искусственный интеллект только находится на заре своего развития. И пока невозможно со стопроцентной вероятностью предугадать, больше добра или зла он принесет. Человеку стоит как можно быстрее научиться аккуратно и умело обращаться с этим обоюдоострым оружием. 


Сценарии из жизни

Мошенники научились действовать в контексте и ловить наиболее подходящие моменты, когда человек теряет бдительность, отмечает основатель и CEO компании Mirey Robotics, эксперт по искусственному интеллекту Андрей Наташкин. 

- Например, у человека задержался самолет, и он спешит на последний аэроэкспресс, отправляющийся из Шереметьево. На бегу вбивает в поисковик запрос «купить билет на аэроэкспресс» и переходит по первой ссылке, - рассказывает эксперт. - Он вбивает все свои данные для покупки билета, тем самым передавая мошенникам конфиденциальную информацию. Одной из последних ярких новостей данной сферы является использование сервиса OnlyFake, который подделывает документы. Целью почти всегда является отмывание и кража денежных средств жертвы. Это не новая тенденция. Мошенники и ранее подделывали документы, используя другие инструменты. 

Например, растровый графический редактор Adobe Photoshop давал неплохие результаты. Но, во-первых, это долгая и кропотливая работа, требующая определенных навыков. Во-вторых, полученная картинка могла быть неидеальна, что негативно влияло на результативность мошеннических действий. Нейросеть OnlyFake поражает своей скоростью, а также высоким качеством выполняемых работ. Технология предлагает изготовить паспорта 26 стран, включая Россию. Интересно, что готовый файл крайне похож на реальную картинку. Например, паспорт словно лежит на рабочем столе, и сама фотография небрежная. Все сделано именно так, как будто это выполнил сам человек. Стоимость одного запроса порядка 15 долларов. В мошенническом мире это небольшие деньги. Даже услуги дизайнера, работающего в графических программах, стоят дороже.



За всеми важными новостями следите в Telegram, во «ВКонтакте»«Одноклассниках» и на YouTube