У любого направления технологического прогресса есть своя цена — обратная сторона, и в случае с индустрией искусственного интеллекта ею стало запредельное потребление энергии. А она на сегодня в своей массе все еще вырабатывается путем сжигания топлива, что генерирует выбросы в атмосферу. Подсчитано, что один сеанс обучения нейронной сети приводит к выбросу 284 тонн углекислого газа – это впятеро больше, чем за весь срок эксплуатации обычного автомобиля.
Исследователи из Массачусетского университета (США) изучили особенности эксплуатации четырех принципиально разных современных ИИ: Transformer, ELMo, BERT и GPT-2. Они замерили суточное потребление энергии каждой системой и умножили его на время полного обучений нейросети по ее стандартной программе. Полученный объем энергии добавили в формулу генерации выбросов при средних показателях по США и получили очень неприятные значения.
Еще хуже обстоят дела, когда для обучения нейросетей применяют передовую технологию «поиска нейронной архитектуры» (NAS). Она позволяет без особых трудностей, просто методом проб и ошибок, автоматизировать процесс проектирования нейросети. Этот процесс весьма трудоемкий – тот же Transformer изначально тратит 84 часа на обучение новому языку, но с NAS на это ушло бы целых 270 000 часов.
И это только вершина айсберга — расчеты проводились для конкретных, хорошо известных нейросетей. А вот как на самом деле устроены гораздо более масштабные облачные платформы Google и Amazon, какое энергообеспечение у мощностей, на которых они базируются — вопрос открытый. Но и то, что уже известно, вызывает серьезное беспокойство. Развитие ИИ не должно стать новым источником угрозы экологии нашей планеты.