Як штучний інтелект погіршує екологічну ситуацію на планеті. Дослідження

Щоразу, коли ми звертаємося до штучного інтелекту, щоб створити картинку, написати листа або поставити питання чат-боту, це дорого коштує планеті. Дослідники зі стартапу Hugging Face та Університету Карнегі – Меллона вивчили поширені сценарії використання нейромереж та визначили, скільки енергії вони вимагають.

Так, генерація зображення по енергомісткості можна порівняти з повною зарядкою смартфона. При цьому тисяча запитів щодо створення тексту вимагатиме лише 16% цієї енергії.

Навчання великих моделей штучного інтелекту неймовірно енерговитратне, але це лише одна частина головоломки. Більшість їх вуглецевого сліду виникає через фактичне використання.

Нове дослідження — перший випадок, коли дослідники оцінили викиди вуглекислого газу, пов’язані з використанням моделей штучного інтелекту для різних завдань.

Дослідниця зі стартапу Hugging Face та керівник проєкту Саша Луччіоні та її група вивчали 10 популярних запитів до штучного інтелекту на платформі Hugging Face, у тому числі питання до бота, генерацію тексту, опис зображень, створення субтитрів та картинок. Експерименти проводили на 88 різних моделях.

Для кожного із завдань Луччіоні використала 1 тисячу промптів і виміряла витрачену енергію за допомогою розробленого нею інструменту під назвою Code Carbon. Code Carbon здійснює розрахунки, аналізуючи енергію, яку споживає комп’ютер під час запуску моделі.

Створення зображень, безумовно, було найенергомісткішим та вуглеродомісткішим завданням для штучного інтелекту.

  • При створенні 1 тисячі зображень за допомогою потужної моделі типу Stable Diffusion XL виділяється приблизно стільки ж вуглекислого газу, скільки при подоланні 6,6 км в середньому автомобілі з бензиновим двигуном.
  • Водночас найефективніша модель генерації тексту, яку вони досліджували, виділяла стільки ж CO2, скільки при проїзді 0,9 м на аналогічному транспортному засобі.

Обсяг цих викидів швидко зростає. Бум генеративного штучного інтелекту спонукав великі технологічні компанії інтегрувати потужні моделі штучного інтелекту до різних продуктів, від електронної пошти до текстових редакторів. Сьогодні ці моделі використовують мільйони, якщо не мільярди людей щодня.

Команда виявила, що великі генеративні моделі набагато витратніші, ніж невеликі та адаптовані для конкретних завдань. Наприклад, при написанні рецензій на фільми вони вимагали у 30 разів більше енергії. Причина в тому, що великі моделі намагаються виконувати безліч завдань одночасно, таких як генерація, класифікація та узагальнення тексту замість виконання лише одного завдання, такого як класифікація.

Луччіоні сподівається, що дослідження спонукне людей бути більш розбірливими у використанні генеративного штучного інтелекту та по можливості вибирати більш спеціалізовані моделі, які створюють менший вуглецевий слід.

Одного разу в Google підрахували, що в середньому для онлайн-пошуку потрібно 0,3 Ват-години електроенергії — це все одно що проїхати 0,5 м на автомобілі. Сьогодні це число, ймовірно, набагато вище, тому що у пошук Google інтегрували моделі генеративного штучного інтелекту.

БІЛЬШЕ ЦІКАВОГО:

Джерело: MITTechnologyreview

Читайте также:

Виростити котедж: як виглядатимуть приватні будинки з живих дерев

Як користуватися Artbreeder — нейромережею, яка вміє «схрещувати» зображення та створювати нові

OpenAI представила революційну нейромережу SORA, що генерує відео за текстом

Що чекає штучний інтелект у 2024 році: 4 головні тренди від MIT