Прочитавши статтю, ви дізнаєтеся ключові ідеї книги «Штучний інтелект: перезавантаження» вчених, які спеціалізуються на штучному інтелекті Гері Маркуса та Ернеста Девіса про те, чому, попри прогнози технооптимістів та галас у ЗМІ, ми ще дуже далекі від створення штучного інтелекту, подібного до людського.
Розрив між тим, про що повідомляють ЗМІ, і як справи насправді
На думку авторів, відірваність від реальності характерна як для оптимістичних прогнозів, так песимістичних. Великий внесок у це роблять ЗМІ, які роблять скромний прогрес як неймовірний прорив, привертаючи увагу і лякаючи своїх читачів. Але варто тільки розібратися, яка саме інформація ховається за гучним заголовком або пресрелізом, як стає зрозуміло, що справи зовсім не такі, як їх намагаються уявити.
Це не означає, що у сфері досліджень штучного інтелекту немає реального прогресу. Прекрасні досягнення отримані в таких областях, як розпізнавання зображень та мовлення, керування та доставлення вантажів дронами. В основі успіху сучасних систем штучного інтелекту лежать два фактори: підвищення обчислювальної потужності апаратного забезпечення та значне збільшення бібліотек даних.
Головна проблема штучного інтелекту — відсутність гнучкості, його крайня вузькість, яка виявляється у придатності до вирішення дуже специфічних завдань. Навіть такий гігант, як Google, зміг створити лише вузькоспеціалізовану систему Google Duplex для здійснення телефонних дзвінків.
Між оптимістичними прогнозами щодо штучного інтелекту та реальністю існує величезний розрив, який виражається у трьох невирішених проблемах.
- Перша проблема — легковірність або фундаментальна помилка оцінки справжності. Люди наділяють штучний інтелект людськими якостями та невірно оцінюють його здібності.
- Друга проблема — ілюзія швидкого прогресу. Швидкий прогрес у розв’язанні легких проблем не дорівнює прогресу у розв’язанні складних проблем. Те, що комп’ютер обігрує людей в інтелектуальні ігри, не означає, що він розумніший за людей.
- Третя проблема — переоцінка надійності. Захоплені успіхами штучного інтелекту в одних областях ми екстраполюємо ці успіхи на все. Ми вважаємо, що якщо безпілотне авто успішно їздить магістраллю, то це означає, що після доопрацювання воно так само успішно показуватиме себе на міських вулицях. Однак між цими двома здібностями лежить технологічна прірва.
Відсутність фундаментального прориву
Основна проблема в тому, що підхід, що нині домінує означає орієнтацію на вузький штучний інтелект та все більші набори даних. В результаті з’являється багато розв’язань деяких проблем, які можуть дійсно виглядати дивовижно, але вони не можуть призвести до кардинальних проривів. Сучасний штучний інтелект, за словами авторів, є сліпим рабом даних. І чим більше ми покладаємося на такі системи, вважаючи їх інтелектуальними, тим до більш небезпечних наслідків це може призвести.
На цей час основна небезпека систем штучного інтелекту полягає не в тому, що вони захоплять владу і поневолять нас, а в тому, що вони надто ненадійні, хоча ми все частіше на них покладаємося.
Щобільше, на думку авторів, питання про захоплення влади машинами переоцінене, оскільки у машин немає людської мотивації, цілей та бажань.
Глибоке навчання є не інтелект, а лише його фрагмент
Сьогодні глибоке навчання — панівний метод розробки штучного інтелекту. Це відносно новий підхід, класичний підхід орієнтувався на ручному кодуванні знань, які мали потім використовувати машини. Класичний підхід ще використовується в ряді областей, але він був практично повністю витіснений машинним навчанням, що отримує закономірності з великих обсягів даних і видає на їх основі припущення.
В основі глибокого навчання лежать ієрархічне розпізнавання образів та саме навчання. Ієрархічне розпізнавання образів означає обробку даних у певній послідовності, подібно до нейронів зорової системи людини. Схожістю вузлів штучних мереж із нейронами людини й пояснюється назва «нейронні мережі».
Друга основа глибокого навчання — це навчання методом спроб і помилок, коли система освоює все більше кореляцій і стає все більш точною у своїх припущеннях.
Проте автори, визнаючи вражаючі результати роботи нейронних мереж у низці областей, вказують, що глибоке навчання — це не штучний інтелект, а лише частина складнішого завдання створення інтелектуальних машин.
Вони виділяють три основні проблеми глибокого навчання.
- Перша проблема. Глибокому навчанню потрібні величезні масиви даних. Якщо в іграх правила залишаються незмінними й машини можна навчити всіх комбінаціях ходів, то в багатьох областях реального життя неможливо отримати достатню кількість релевантних даних, щоб забезпечити надійність системи глибокого навчання. Це є очевидним обмеженням її роботи.
- Друга проблема. Непрозорість рішень нейронних мереж. Нейронні мережі приймають рішення на основі великих масивів даних, сама логіка цих рішень прихована не тільки від звичайних користувачів, але й від експертів. Чим більше ми покладаємося на нейронні мережі, тим важливішим стає розуміння принципів, за якими вони приймають рішення. Ці принципи не повинні залишатися таємницею, коли від них залежить життя та добробут людей.
- Третя проблема. Глибинне навчання нестабільне та непередбачуване. Автори дають безліч прикладів, коли нейронні мережі інтерпретують очевидні для людини зображення неправильно, наприклад, приймаючи черепаху за гвинтівку, а бейсбольний м’яч із піною за чашку капучино. Такі помилки мають критичне значення, якщо ми збираємося передавати системам функцію керування транспортними засобами або захист людей від нападів.
Автори роблять висновок, що глибоке навчання, попри назву, насправді не таке вже й глибоке. Воно позбавлене глибини людського розуму, а розпізнавання мови та зображень — не інтелект, а лише його найдрібніші фрагменти.
Найважливіше завдання — навчити машини читати та розуміти прочитане
Сьогодні вже робляться спроби створити машини, що читають, але завдання занадто складне. Так, створили проєкт Google Talk To Books обіцяли використовувати розуміння природної мови, щоб забезпечити абсолютно новий спосіб вивчення книг. Передбачалося, що система відповідатиме на будь-які питання, знаходячи відповіді на них у книгах. Однак насправді ця система не мала уявлення про те, що читала. І якщо з відповідями на буквальні питання вона справлялася ще непогано, там, де відповіді вимагали підключення абстрактного мислення, результати були жахливими.
Люди, на відміну від сучасних нейромереж, розуміють, що відповіді, які можна знайти у книгах, викладені у них не буквально. Читач «Гаррі Поттера», на відміну від системи штучного інтелекту, може знайти в книгах всі сім крестражів, навіть з урахуванням того, що вони не перераховуються у вигляді єдиного списку.
Подібно до людини, дійсно розумна машина повинна не тільки повторювати те, що прочитала, а й вміти синтезувати інформацію.
На сьогодні робота нейромереж примітивна в порівнянні з людською мовою, роблять висновок автори. З тексту системи штучного інтелекту здатні отримувати дуже обмежену інформацію.
Страх перед нашестям роботів
Автори з гумором пишуть, що якщо у вас є страх, що роботи повстануть і атакують людей, вам потрібно лише закритися вдома, пофарбувати ручку так, щоб вона була непомітна на тлі дверей, прикріпити до вхідних дверей великий плакат зі шкільним автобусом або химерно розфарбованим тостером, покласти на підлогу бананову шкірку та цвяхи, для додаткової безпеки можна поставити на шляху робота стіл. Все це — непереборні для роботів перешкоди. Щобільше, у процесі проходження перешкод у сучасного робота, напевно, розрядиться батарея.
Апокаліптичні сценарії про нашестя роботів набагато ближче до фантастики, ніж до реальності.
Автори виділяють п’ять основних моментів, які потрібно вміти оцінювати будь-якій розумній істоті:
- де вона знаходиться;
- що відбувається довкола неї;
- що потрібно робити прямо зараз;
- як цього досягти;
- що потрібно робити протягом більш тривалого терміну для досягнення наявних цілей.
Всі ці питання повинні розглядатися постійно у вигляді циклів, що безперервно повторюються.
У сфері штучного інтелекту прогрес спостерігається лише в одних частинах циклу, інші залишаються без рішень.
Розумні машини повинні мати здоровий глузд і бути набагато надійнішими, ніж наявні
Автори вважають, що якщо наша мета — створити штучний інтелект, подібний до людського, то нам потрібно перейти від систем, які використовують як основний інструмент навчання статистичні кореляції, до систем, які осягають світ через базове розуміння, подібне до людського. Машини повинні мати те, що ми називаємо здоровим глуздом — базовими знаннями, володіння якими ми очікуємо від усіх людей. Це знання про те, як зазвичай поводяться люди та об’єкти у різних ситуаціях, як вони використовують предмети, що можна робити з різними речами, що відбувається і не відбувається у різних ситуаціях.
Щоб створити штучний інтелект, подібний до людського, потрібно закласти в машини ті принципи, які дозволяють вчитися та осягати світ людям: здатність до абстракції, композиційності, причинно-наслідкові уявлення, розуміння того, що об’єкти існують протягом якогось часу. Потрібно закласти у штучні системи основи у вигляді розуміння часу, простору та причинності. Тому під час створення штучного інтелекту комп’ютерні науки мають збагачуватися знаннями інших дисциплін, зокрема когнітивних наук.
На думку авторів, вирішити завдання здорового глузду та глибокого розуміння вкрай складно, але тільки це допоможе нам створити справді розумний штучний інтелект.
БІЛЬШЕ ЦІКАВОГО: