Бесплатно Экспресс-аудит сайта:

24.03.2022

Эксперты в области ИИ предупредили о возможной кибервойне против банков

Правительство США уже предупреждало банки о возможном усилении кибератак на их системы после введения Россией войск на территорию Украины. Однако эксперты считают, что финансовые организации также могут столкнуться с рисками, связанными с весьма малопонятным аспектом их бизнеса – моделями искусственного интеллекта (ИИ), использующимися практически во всем, от лендинга до трейдинга.

«Это огромный неучтенный риск. Уязвимости в ИИ и сложных аналитических системах значительны и очень часто упускаются из виду многими организациями, которые их используют», – сообщил изданию The Wall Street Journal Эндрю Берт (Andrew Burt), бывший советник главы киберподразделения ФБР, который сейчас руководит специализирующейся на проблемах ИИ юридической фирмой BNH.

Используемые банками модели машинного обучения представляют большую угрозу, чем системные операторы, становившиеся целями атак в прошлом. В отличие от систем для защиты от вымогательского ПО, защита технологий машинного обучения находится лишь в зачаточном состоянии, что ставит полагающиеся на них финансовые организации под угрозу.

«Безопасность машинного обучения – это не просто комбинация из безопасности и машинного обучения; это совершенно новая сфера […] Когда машинное обучение внедряется в любую инфраструктуру ПО, открываются новые поверхности атак, новые способы воздействия на систему с целью изменения ее поведения. Вся эта инфраструктура кажется хрупкой, как карточный домик. Неизвестно, какую карту надо вытащить, чтобы он полностью разрушился», – пояснил основатель и глава неправительственной группы Montreal AI Ethics Institute Абнишек Гупта (Abhishek Gupta).

Модели машинного обучения различаются по уровню сложности, начиная от сравнительно простых алгоритмов и заканчивая сложными так называемыми «черными ящиками» искусственного интеллекта, названными так потому, что подобно мозгу человека их нельзя просто открыть и посмотреть, как происходит процесс принятия решений. Кроме того, так же, как и человеческий мозг, ИИ-платформы могут получать неправдивую информацию, в том числе от злоумышленников, желающих ими манипулировать.

«Российский опыт» использования интернета и социальных сетей для распространения дезинформации может быть легко использован против моделей машинного обучения, которые, как и другие инвесторы, обращаются к интернету для оценки настроения рынка, считает Гупта. К примеру, ложная информация о неизбежном поглощении или разворачивающемся фиаско может легко обмануть торговые системы финансового учреждения, и надежных систем защиты от подобных угроз в настоящее время пока не существует.

Хотя моделями машинного обучения пользуются многие крупные организации в США, модели, применяемые банками, уникальны в своей важности для экономики страны, поэтому представляют уникальные риски.

«Они очень подвержены манипуляциям. Если найти способ обмануть модели в банках с избыточной задолженностью и заставить их причинить большие потери, это станет своего рода атомной бомбой для экономики», – сообщил специалист в области ИИ, руководитель компании Fairly AI Дэвид ван Бруваене (David Van Bruwaene).

Модели машинного обучения в банках подвержены различного рода атакам. Их можно обмануть с помощью поддельных трейдинговых данных, а лендинговые компьютеры, к примеру, можно загрузить фальшивыми заявками на заем средств и тем самым исказить их видение финансовой реальности.

По словам Берта, атаки на модели машинного обучения в настоящее время в основном являются делом рук хакеров, работающих на правительство. Однако со стороны очень сложно подсчитать количество таких атак, поскольку банки неохотно раскрывают слабые места в своих системах.

Поскольку исследования по обнаружению и предотвращению атак на модели машинного обучения все еще находятся на относительно ранней стадии, консультировать потенциальных жертв о том, как защитить себя от подобных атак, очень сложно.

«Это вопрос на миллиард долларов. В данной области было проделано достаточно работы, и большая часть ее не была успешной. Поэтому, к сожалению, на данный момент не так много эффективных способов противостоять им (угрозам – ред.)», – отметил Гупта.