Бесплатно Экспресс-аудит сайта:

15.02.2023

Интеграция ИИ в поисковые системы потребует увеличения вычислительных мощностей в 5 раз

По мнению изданий Insider и Wired , совместная работа поисковых систем и больших языковых моделей может потребовать пятикратного увеличения вычислительных мощностей и повысить выбросы углерода.

Insider, ссылаясь на мнение соучредителя QScale Мартина Бушара, написал, что поиск с помощью генеративного ИИ требует, как минимум, в 4-5 раз больше вычислительной мощности, чем стандартный поиск. По его словам, существующей инфраструктуры ЦОД недостаточно, чтобы удовлетворить спрос на технологию

Согласно данным UBS, сейчас к ChatGPT ежедневно обращаются около 13 млн. пользователей, в то время как Microsoft Bing обрабатывает полмиллиарда поисковых запросов в день, а Google — 8,5 млрд.

Wired процитировал мнение Алана Вудворда, профессора кибербезопасности в Университете Суррея (Великобритания), который заявил, что в индексировании и поиске интернет-контента задействованы огромные ресурсы, но интеграция ИИ требует совершенно другие мощности.

Хотя ни OpenAI , ни Google пока не раскрыли стоимость вычислений, необходимых для разработки их продуктов, эксперты считают, что обучение GPT-3 потребовало около 1287 МВтч и привело к выбросам более 550 тонн углекислого газа. Издание Insider для сравнение привело свой пример : один среднестатистический автомобиль выбрасывает 4,6 тонн углекислого газа в год.

Стоит отметить, что корпорации уже задумываются о сокращении энергозатрат. Например, Google недавно заявила, что собирается запускать облегчённую версию Bard, которая потребует меньшей вычислительной мощности. Представитель корпорации Джейн Пак сказала, что сочетание эффективных моделей, процессоров и ЦОДов с чистыми источниками энергии может уменьшить углеродный след системы машинного обучения в 1000 раз.

Insider считает, что именно желание облегчить вычислительную нагрузку Bard и использование облегчённой версии нейросети LaMDA могли привести к ошибке в презентации чат-бота Google Bard, которая спровоцировала падение акций компании и к последующему сокращению капитализации почти на $100 млрд.

По мнению журналистов, чтобы снизить вычислительные и энергетические затраты на ИИ, корпорации будут выпускать «урезанные» версии продуктов для сокращения затрат. Это означает, что технология перестанет соответствовать ожиданиям, что подорвёт доверие потребителей.