Оглавление
Экспоненциальный рост дата-центров для генеративного искусственного интеллекта грозит серьезными последствиями для климата. По прогнозам Международного энергетического агентства, к 2030 году потребление электроэнергии дата-центрами удвоится и достигнет 945 тераватт-часов — больше, чем потребляет вся Япония.
Две стороны углеродного следа
Как объясняет Вайджай Гадепалли, старший научный сотрудник MIT Lincoln Laboratory, при обсуждении экологического воздействия ИИ часто упускают из виду «воплощенный углерод» — выбросы, связанные со строительством самой инфраструктуры.
«Операционная составляющая — лишь часть истории. Некоторые меры по снижению операционных выбросов могут помочь сократить и воплощенный углерод, но в будущем нужно делать больше», — отмечает эксперт.
Энергосберегающие стратегии
Исследователи предлагают несколько подходов к снижению операционных выбросов:
- Снижение энергопотребления GPU — аналогично «приглушению света» в доме
- Использование менее энергоемкого оборудования с пониженной точностью вычислений
- Оптимизация процесса обучения моделей машинного обучения
Исследования Supercomputing Center показали, что снижение энергопотребления GPU до 30% от максимального практически не влияет на производительность моделей ИИ, одновременно упрощая охлаждение оборудования.
Почему-то вышло так, что индустрия тратит колоссальные ресурсы на погоню за последними процентами точности, которые часто не имеют практической ценности. Пока все обсуждают GPT-5, реальная экологическая цена этой гонки остается в тени. Пора переходить от максимизации метрик к оптимизации эффективности — и это куда более сложная инженерная задача.
Практическая эффективность вместо максимальной точности
Гадепалли отмечает, что около половины электроэнергии при обучении моделей тратится на достижение последних 2-3 процентных пунктов точности. Во многих практических применениях, таких как системы рекомендаций для электронной коммерции, точность в 70% может быть вполне достаточной.
Исследователи из Supercomputing Center разработали инструмент, позволяющий избежать до 80% бесполезных вычислений при обучении моделей, что значительно снижает энергопотребление без потери качества.
Перспективы hardware-оптимизации
Несмотря на замедление роста энергоэффективности большинства чипов с 2005 года, производительность GPU в расчетах на джоуль энергии продолжает улучшаться на 50-60% ежегодно. Эта тенденция открывает дополнительные возможности для снижения углеродного следа генеративного ИИ.
По материалам MIT News
Оставить комментарий