Бесплатно Экспресс-аудит сайта:

16.02.2024

OpenAI против спецслужб: 5 киберпреступников познали вкус поражения

OpenAI заблокировала пять аккаунтов, которые, по ее данным, использовали агенты Китая, Ирана и Северной Кореи в своих коварных шпионских целях. В заявлении OpenAI также говорится, что страны с помощью модели GPT-4 пытались генерировать материалы для политически мотивированных атак.

Кроме того, злоумышленники искали лазейки в системах обнаружения вредоносных программ. Для этого они задействовали различные возможности нейросетей. В том числе их способность извлекать информацию, переводить тексты, находить ошибки в коде и автоматизировать простые задачи программирования. Вероятно, таким образом хакеры надеялись обойти защиту и скрыть свою незаконную активность.

Как сообщает Microsoft , партнер OpenAI, агенты из Китая, Charcoal Typhoon и Salmon Typhoon, собирали данные о конкретных компаниях и спецслужбах. Иранская группировка Crimson Sandstorm разрабатывала целевые фишинговые атаки. Emerald Sleet, злоумышленники из Северной Кореи искали информацию по оборонной тематике и генерировали фишинговые письма. Еще одна группа, Forest Blizzard изучала технологии спутниковой разведки и автоматизацию вредоносных скриптов.

Большие языковые модели, такие как GPT-4 от OpenAI, действительно хорошо обрабатывают тексты - извлекают ключевую информацию, составляют связные сообщения, генерируют код. OpenAI не хочет, чтобы ее продуктами злоупотребляли, для чего и внедрила фильтрацию подозрительных запросов.

Компания также отметила, что GPT-4 имеет ограниченный потенциал для проведения кибератак по сравнению с другими, специально разработанными для этих целей нейросетями. Иными словами, модель сама по себе не представляет большой угрозы, даже если ей попробуют воспользоваться преступники.

OpenAI и раньше заявляла, что GPT-4 вряд ли будет полезна для хакеров, так как ее алгоритмы плохо справляются с созданием эксплойтов для известных уязвимостей.