Ефект Елізи, версія 2.0 або чому нам здається, що з нами розмовляє розум, хоча це лише алгоритм

В одному з поштових відділень США нещодавно відбувся характерний для нашої ери епізод. Жінка, стоячи в черзі, сперечалася із працівником пошти, розмахуючи перед ним смартфоном. Вона наполягала на тому, що в USPS діє «гарантія кращої ціни», тому що так сказав ChatGPT. Насправді жодної «price match promise» у поштової служби ніколи не існувало, але відвідувачка довірилася штучному інтелекту більше ніж живому співробітнику.

Ситуація здається курйозною, але насправді відбиває серйозну оману. Люди все частіше сприймають відповіді чат-ботів як слова справжнього співрозмовника, наділеного знанням, характером і навіть намірами. Насправді ж великі мовні моделі є лише статистичними механізмами, які підбирають найімовірніше продовження тексту. Вони не перевіряють факти та не несуть відповідальності за помилки.

Кожна відповідь ChatGPT, Claude чи Grok народжується з нуля. Немає «пам’яті» у звичному сенсі, немає особистості, яка б зберігалася між сесіями. Якщо сьогодні чат-бот каже: «Я обіцяю допомогти», то вже за хвилину це «я» перестає існувати. Новий діалог запускає ту ж інтелектуальну машину, але без будь-якого зв’язку з попередньою обіцянкою. Ілюзія безперервності виникає завдяки системі підказок та вбудованим механізмам, які підмішують у кожен запит історію листування та деякі користувальницькі уподобання.

Саме ця ілюзія голосу без людини стала джерелом плутанини. Вчені називають її «ефектом Елізи». Ще в 1960-х користувачі раннього чат-бота ELIZA починали ділитися потаємним, хоча програма лише повторювала їх фрази питаннями. Сучасні моделі набагато переконливіші, і тому рівень довіри до них вищий, що часом обертається проблемами.

Дослідження останніх років показують: «особистість» чат-бота вкрай нестабільна. Незначні зміни у формулюванні запиту здатні радикально змінювати відповіді, а отже, і «характер». Те, що здається сталістю, насправді лише статистичний ефект від вибору даних, параметрів і прихованих налаштувань.

Така невизначеність може бути небезпечною. У медичних чи психологічних контекстах людина здатна відмовитися від лікування чи ухвалити шкідливе рішення, повіривши «пораді» системи. Вже зафіксовано випадки, коли вразливі користувачі починали приписувати чат-ботам статус авторитету і втрачали зв’язок із реальністю, аж до формування болісних помилок.

При цьому важливо наголосити: розмовні інтерфейси самі по собі не зло. Вони дійсно зробили технології доступнішими мільйонам людей. Але важливо пам’ятати, що ми спілкуємося не з особистістю, а з інтелектуальним двигуном без водія. Як двигун внутрішнього згоряння колись замінив коня, так і мовна модель замінює співрозмовника, створюючи мову, але не маючи особистості.

Ризик полягає не в тому, що штучний інтелект «набуде свідомості» і повстане проти людства, а в тому, що ми почнемо довіряти йому як людині — віддаючи свої рішення «голосу з нізвідки». Щоб використовувати такі системи розумно, потрібно сприймати їх як інструмент: перевіряти відповіді, зіставляти факти та пам’ятати, що за будь-яким результатом стоїть лише алгоритм, а не особистість.

Сьогодні ми переживаємо момент, коли технології напрочуд переконливо імітують людину. І саме це нова загроза: нерозумна довіра до тих, хто не має ні пам’яті, ні відповідальності, ні справжнього «я».

Більше цікавого:

Читайте также:

Як роботи освоїли мислення вищого порядку завдяки DeepMind

Винайдено «таблетку для емоцій», яка отримала схвалення регуляторів

Ранковий порадник ChatGPT Pulse: як він працює

OpenAI готують нове покоління AI-пристроїв