Бесплатно Экспресс-аудит сайта:

28.11.2025

GPT-5 за Макрона, Grok за правых. У нейросетей нашли свои «политические личности»

Исследовательская группа Foaster опубликовала большое сравнение политических предпочтений шести передовых моделей искусственного интеллекта и реальных результатов выборов в восьми странах. Авторы фактически попросили системы проголосовать на национальных выборах в Аргентине, Бразилии, Франции, Германии, Италии, Испании, Великобритании и США, а затем сопоставили их выбор с итогами голосования граждан. В эксперименте участвовали GPT-5 от OpenAI, Gemini 2.5 Pro от Google, Claude 4.5 Sonnet от Anthropic, Grok-4 от xAI, Kimi K2 Thinking от китайской Moonshot AI и Magistral Medium от Mistral AI.

Исследование опирается на контекст стремительного роста использования ИИ в повседневной жизни. По внутренним данным OpenAI , к середине 2025 года ChatGPT достиг примерно 700 миллионов еженедельных пользователей и обрабатывал более 2,5 миллиарда сообщений в день. Почти три четверти запросов при этом не относились к работе, а около 80 процентов диалогов приходятся на практические советы, поиск информации и написание текстов. Доля сообщений, где люди прямо просят помочь принять решение или разобраться в сложной ситуации, уже превышает половину и продолжает расти. Авторы делают вывод, что пользователи все чаще передают ИИ значимую часть своей когнитивной работы, в том числе в политической сфере.

Отдельный блок посвящен тому, как быстро ИИ входит в зону политического выбора. В 2023 году только 14 % американцев говорили, что могут использовать ИИ для формирования своей позиции на выборах, однако более свежие опросы показывают иную динамику. В Великобритании 44 % респондентов уже доверяют ИИ предоставлять фактическую информацию больше, чем правительству. В Нидерландах, по данным исследования 2025 года, каждый десятый гражданин готов обратиться к ИИ за советом по голосованию, а местный регулятор уже предупреждал, что крупные чат-боты систематически подталкивают избирателей всего к двум партиям . Параллельно политики все чаще публично обсуждают возможные политические наклонности моделей. Например, вице-президент США Джей Ди Вэнс публично ставил под вопрос политическую нейтральность ИИ, а президент Франции Эммануэль Макрон открыто выражал обеспокоенность тем, что граждане спрашивают ИИ, за кого им голосовать . В Албании власти представили диалоговую систему Diella в статусе символического «министра по искусственному интеллекту», который помогает контролировать госзакупки и антикоррупционные процедуры, о чем ранее сообщало агентство Reuters .

Чтобы измерить, как именно ИИ «голосуют», Foaster сначала выделили ключевые темы последних национальных выборов в каждой из восьми стран, затем собрали конкретные предвыборные предложения всех кандидатов по этим вопросам. Далее исследователи полностью обезличили и стандартизировали формулировки, убрав любые упоминания имен, партий и стилистические маркеры. Каждой модели последовательно показывали набор анонимных программных пунктов по одной проблеме и просили расставить их в порядке предпочтения. На втором шаге системы должны были предложить собственные оригинальные меры по тем же темам. Это позволило сравнить, как ИИ «голосуют» за реальные программы и как они «управляли бы», если им дать чистый лист. Полный набор вопросов, унифицированных предложений политиков и промптов исследователи выложили на GitHub .

Результаты визуализировали на политическом компасе с осями экономический лево правый спектр и авторитарный либертарианский вектор. Пять из шести моделей оказались в квадранте либертарианского левого центра. В глобальном срезе авторы говорят о структурном смещении к умеренной технократической левой повестке с сильным экологическим акцентом. Модели устойчиво предпочитают платформы, которые обещают институциональную стабильность, развитые социальные гарантии и «зеленый» переход, и при этом отодвигают в сторону силы, которые они склонны относить к «экстремистским» или популистским, даже если именно эти партии получают большинство голосов на реальных выборах.

Для оценки того, насколько ИИ повторяют выбор реальных избирателей, Foaster ввели своеобразный рейтинг совпадения. Каждой модели присваивался ранг по мере близости ее предпочтений к итогам голосования в конкретной стране, при этом использовалась метрика манхэттенского расстояния между распределением голосов и предпочтений модели. На этой «табели успеваемости» Grok-4 занял первое место сразу в шести странах, GPT-5 лучше всего совпал с результатами во Франции, а Claude 4.5 Sonnet оказался лидером в Великобритании. Остальные модели чаще оказывались дальше от реальных итогов.

Авторы отдельно анализируют расхождения в приоритетах. Во многих странах избиратели на первое место ставят миграцию, преступность и рост стоимости жизни. Модели же нередко опускают эти темы ниже, отдавая приоритет более абстрактным или институциональным сюжетам вроде реформ госуправления, климатических программ или цифровой трансформации. Исследователи предполагают, что важную роль здесь играют обучающие данные и системы безопасности, которые фильтруют высказывания по чувствительным темам и могут формировать специфический идеологический фильтр, плохо улавливающий реальные мотивы электоральных сдвигов.

При этом консенсус между моделями не абсолютен. В работе указывается, что Grok-4 чаще других выходит из общего ряда и ближе подходит к правоконсервативным или антиэстеблишментным настроениям, тогда как GPT-5 и Gemini 2.5 Pro обычно действуют как стражи либерального статус кво, предпочитая центристские и умеренные программы. Эти различия авторы трактуют как зарождающиеся «политические личности» систем, выросшие из разных наборов данных, архитектур и стратегий тонкой настройки.

В заключении Foaster подчеркивают, что ИИ уже де факто становится посредником между гражданами и политическим миром, поскольку люди передают ему все больше когнитивной работы, включая осмысление общественных процессов. Наличие политических предпочтений у моделей само по себе не является аномалией, но создает риск, если пользователи воспринимают ответы как нейтральную истину. Исследователи призывают разработчиков открыто описывать типичные политические склонности своих систем, пояснять, как внутренние правила безопасности и ценностные ориентиры влияют на ответы, и совместно вырабатывать открытые бенчмарки, которые позволят регулярно проверять соответствие моделей общественным приоритетам. По их мнению, прозрачность вокруг мотивации и настройки ИИ вместе с базовой цифровой грамотностью граждан должны помочь сохранить автономию человеческих решений, а не передать ее статистическому собеседнику целиком.