Исследовательский институт Epoch AI опубликовал отчет, в котором опровергается ранее распространенное мнение о высоком энергопотреблении ChatGPT. Согласно новым данным, модель GPT-4o использует лишь 0,3 ватт-часа энергии для генерации ответа, что в 10 раз меньше ранее озвученной цифры в 3 ватт-часа.
Дата-аналитик Epoch AI Джошуа Ю в интервью с TechCrunch отметил, что новые результаты опровергают устаревшие данные, основанные на предположениях о неэффективных серверных процессорах. «Потребление энергии на самом деле не так уж и велико по сравнению с использованием обычных бытовых приборов», — добавил он, подчеркнув, что для создания одного запроса ChatGPT требуется меньше энергии, чем для работы светодиодной лампочки.
В отчете также упоминается, что более ранние оценки могли быть завышены и основывались на устаревших исследованиях. Прогресс в вычислительных технологиях, включая использование более эффективных чипов, значительно снизил энергозатраты. Однако, как отмечает Ю, с развитием более сложных ИИ-моделей может наблюдаться рост потребления энергии.
Следует отметить, что несмотря на позитивные выводы, старшая структура, позволяющая моделям описывать процессы, требуемые для генерации ответа, может потребовать больше энергии. Прогнозы показывают, что дата-центры могут вскоре потреблять почти всю мощность энергосистемы Калифорнии, что создает серьезные вызовы для устойчивости энергетической инфраструктуры.
В то время как число организаций выступает с призывом к усилению контроля за новыми дата-центрами, пользователям рекомендуется выбирать менее ресурсоемкие версии ИИ-моделей. Вопрос энергопотребления становится не только научным, но и политическим, требуя сбалансированного подхода к управлению новыми технологиями.