Чому штучний інтелект має бути децентралізованим?

Перетин Web 3 та штучного інтелекту, особливо у формі генеративних нейромереж, став однією з найгарячіших тем для обговорення в криптоспільноті. Штучний інтелект серйозно змінює правила гри у багатьох сферах, і тут не є винятком. Однак, з огляду на те, що децентралізація — одна з головних цілей нового покоління інтернету, у багатьох криптокористувачів виникає закономірне питання: «як підвести штучний інтелект під стандарти безпеки та прозорості Web3?»

Користувачі Web 3 звикли до плюсів розподілених систем, але реальність така, що не всі процеси можуть виграти від децентралізації та для кожної сфери існує свій сценарій впровадження блокчейну. Розглядаючи штучний інтелект із цього боку, мимоволі виникають питання «чому штучний інтелект все ще не децентралізований?» та «що з цим робити?». На них ми й спробуємо відповісти у цьому матеріалі.

Чому штучний інтелект має бути децентралізованим?

Навести аргументи на користь децентралізації штучного інтелекту досить легко. Штучний інтелект це цифрові знання, а знання є основою світу. Акумуляція контролю над штучним інтелектом в руках однієї корпорації неминуче призводить до фільтрації інформації та переписування фактів. Не можна заперечувати, що нейромережі з лячною швидкістю проникають у найважливіші сфери нашого життя, і без належного рівня прозорості ситуація може легко вийти з-під контролю.

Представлена в березні 2023 року мовна модель GPT-4 у кілька разів перевершує GPT-3.5 за багатьма параметрами, і, за словами розробників, майбутнє оновлення нейромережі продовжить рух у цьому напрямку, ставши ще потужнішим та ефективнішим. Звичайно, існують і децентралізовані аналоги ChatGPT, проте можливості їх розробників упираються в бюджет, несумісний з великими корпораціями. Якщо нічого не змінити, у певний момент централізовані постачальники рішень на базі штучного інтелекту на кшталт OpenAI виграють ці перегони, і суперництво з ними стане просто марним.

Прозорість процесів – другий чинник, який важливо враховувати під час обговорення майбутнього штучного інтелекту. Сучасні мовні моделі включають мільйони рядків коду, в яких зашифровані величезні масиви даних, зібраних з усього інтернету. Як результат, ніхто не знає, що відбувається всередині GPT-4 і на яких даних OpenAI тренували свій інструмент. Децентралізований штучний інтелект міг би забезпечити прозорість у питаннях того, на чому та як тренувалася конкретна модель.

Чому штучний інтелект досі не був децентралізований?

Якщо докази на користь децентралізації штучного інтелекту настільки очевидні, то чому досі не було жодної успішної спроби в цій галузі? Зрештою, децентралізований штучний інтелект — ідея не нова, і багато принципів цієї технології було закладено ще на початку 1990-х років. Якщо не вдаватися до технічних подробиць, то основна причина тут криється у відносній непопулярності штучного інтелекту донедавна.

До появи великих компаній, таких як OpenAI, мовні моделі впроваджувалися в основному на корпоративному рівні та не мали доступу до великих обсягів даних. Простіше кажучи, масштаби нейромереж у минулому не викликали обговорюваних сьогодні побоювань — здавалося, що цей інструмент не вийде за заздалегідь позначені рамки. Впровадження обмежень чи перенесення штучного інтелекту на децентралізовану архітектуру тоді бачилися як передчасна паніка.

Як правильно децентралізувати штучний інтелект?

Коли йдеться про генеративний штучний інтелект, єдиного підходу до його децентралізації не існує. Існує кілька напрямів, у яких розвивається це питання. Розглянемо основні:

  1. Децентралізація обчислень. Децентралізація обчислень важлива на етапі навчання та налаштування нейромережі. Як відомо, сучасні мовні моделі дуже енерговитратні та потребують потужних GPU, тому зазвичай обробка даних для них виконується у великих централізованих центрах. Використання децентралізованої мережі обчислень, в якій різні сторони можуть надавати свої пристрої для навчання та тонкого настроювання нейромереж, може допомогти усунути контроль, який великі хмарні провайдери мають над створенням таких моделей.
  2. Децентралізація даних. Нині дані, що використовуються для навчання мовних моделей та інших нейромереж, суворо засекречені. Через це користувачам залишається лише гадати, звідки береться інформація, на основі якої генерується контент. Ситуацію може виправити впровадження блокчейну для створення прозорої системи, яка б дозволила користувачам відстежувати походження даних.
  3. Децентралізація оптимізації. На деяких етапах розробки нейромережі потрібно втручання людини. Зокрема, саме такі методи, як навчання з підкріпленням та зворотним зв’язком (RLHF), дозволяють моделі GPT-4 діяти як користувач-френдлі сервіс. Така перевірка є особливо важливою на етапі тонкого налаштування, і в цей час ці деталі закриті від користувачів. Децентралізована мережа валідаторів, що складається з людей і чат-ботів, які виконують конкретні завдання, результат яких відкритий усім охочим, могла б стати значним покращенням у цій галузі.
  4. Децентралізація оцінки. Яка нейромережа найкраща на ринку? Згідно з бенчмарком, найбільш дивовижними результатами може похвалитися… Стоп. Більшість рейтингів і добірок або складається компаніями-розробниками цих самих моделей, або спонсорується ними. Оцінка продуктивності штучного інтелекту та його можливостей – це важливе завдання, і на цей час у світі немає аудитора, який зміг би опублікувати справді неупереджений та точний огляд. Рішенням, як не дивно, могла б стати децентралізована організація оцінювачів, яка проводила б незалежні анонімні тести та виміри.
  5. Децентралізація інфраструктури. Зрештою, найбільш очевидна сфера децентралізації — інфраструктура. Використання мовних моделей сьогодні потребує довіри до інфраструктури, яка контролюється централізованими провайдерами. Створення мережі, в якій обчислення, пов’язані з генерацією відповідей, можуть бути розподілені між різними сторонами, є непростим, але цікавим завданням, яке може принести величезну користь людству.

Штучний інтелект заслуговує на децентралізацію у всіх його аспектах: збір даних, обчислення, розробка та оптимізація. Докази на користь цього очевидні, але технічні проблеми, що за ними стоять, людству ще належить подолати. Для децентралізації штучного інтелекту, можливо, доведеться здійснити технологічний прорив, але ця мета, безумовно, є досяжною. В ідеальному світі майбутнього жодна централізована структура не повинна мати повну владу над штучним інтелектом.

БІЛЬШЕ ЦІКАВОГО:

Джерело: CoinDesk

Читайте также:

4 з 10 перекладачів втрачають роботу через штучниий інтелект

Перекладач із собачого: які технології допоможуть вам краще зрозуміти вашого вихованця

Штучний інтелект навчився покращувати смак пива

ШІ музика: як стартап Suno робить створення пісень доступним кожному