Бесплатно Экспресс-аудит сайта:

10.12.2021

Meta создала новую ИИ-систему для борьбы с вредным контентом

Компания Meta, ранее известная как Facebook, сообщила о создании технологии искусственного интеллекта (ИИ), способной быстро адаптироваться к новым типам опасного контента, включая публикации против вакцинации от COVID-19.

Обычно ИИ-системы обучаются новому на основе примеров, но процесс сбора и маркировки огромных объемов данных может занимать многие месяцы. С помощью технологии, которую Meta назвала Few-Shot Learner, новой ИИ-системе для обучения достаточно только небольшого количества данных, так что она может адаптироваться для борьбы с новыми видами вредного контента всего за несколько недель.

Новая ИИ-система поможет соцсети защититься от критики в свой адрес, в частности со стороны президента США Джо Байдена, обвинившего ее в неудовлетворительной борьбе с дезинформацией на своей платформе. Напомним, ранее в нынешнем году бывший директор по продуктам Facebook Фрэнсис Хауген (Frances Haugen) опубликовала внутренние документы компании, свидетельствующие о том, что она ставит собственную выгоду выше безопасности пользователей.

По словам Meta, во время тестирования новая система идентифицировала оскорбительный контент, который обычные ИИ-системы могли пропустить. После запуска новой системы в Facebook и Instagram процент просмотров вредного контента пользователями уменьшился, заявила Meta.

Few-Shot Learner работает с более сотни языков. Компания не уточнила, с какими именно, но, по словам ее нынешнего директора по продуктам Корнелии Карапчи (Cornelia Carapcea), новая технология способна «нанести сильнейший удар» по вредному контенту на языках, отличных от английского.

Поскольку Facebook планирует создать метавселенную, модерация контента может стать еще более сложной задачей, чем сейчас. Как отметила Карапча, в итоге Few-Shot Learner можно будет использовать и в отношении контента в виртуальной реальности.