Бесплатно Экспресс-аудит сайта:

09.09.2023

Квишинг и эволюция дипфейков: чему киберпреступники учат наивные нейросети?

Исследователи предсказывают, что по мере развития технологий киберпреступники будут все чаще использовать искусственный интеллект в своих целях. При этом речь идет не о простых тактиках вроде мошеннических кампаний, а о крупных автоматизированных и многоступенчатых кибератаках.

По данным организации Darktrace , с мая по июль этого года количество фишинговых писем, распространяющихся с помощью продвинутых методов социальной инженерии, выросло на 59%. Письма подталкивают жертву к выполнению ряда действий перед доставкой вредоносной программы или кражей конфиденциальной информации. И это только начало.

В ходе исследований Darktrace опиралось на данные собственной клиентской базы.

На 135% чаще стали замечать атаки, где социальная инженерия основывается на таких моделях, как ChatGPT. Они умело «втираются в доверие», общаясь с жертвами на любые темы и грамотно отвечая на вопросы.

Еще один пример атак, в которых, возможно, был задействован ИИ – это «квишинг» — фишинг с использованием QR-кодов. Такая уловка автоматизирует процесс и облегчает задачу мошенникам.

Ключевое слово здесь – «возможно», так как исследователи пока что не могут ничего утверждать. Однако известно, что для подобных целей эксплуатировать нейросети очень легко.

Количество писем, в которых хакеры подделывают личности старших руководителей компаний, уменьшилось на 11%. Вместо этого атакующие стали выдавать себя за IT-специалистов на 19% чаще, так как старые «ловушки» сотрудники фирм уже давно разоблачили. В этом умные технологии тоже могут оказаться полезными.

«Злоумышленники обычно корректируют и адаптируют свои техники, когда они становятся неэффективными, но генеративный ИИ — особенно дипфейки — может улучшить процесс», — заявляет технологический директор Darktrace Джек Стокдейл. Речь идет о развитии чат-ботов и их коммуникативных навыков, а также о реалистичной имитации человеческого голоса.

Тем не менее некоторые эксперты утверждают, что прогресс работает в обе стороны: ИИ-алгоритмы помогут создать более эффективные механизмы защиты и так же автоматизировать борьбу с угрозами.