А як щодо психотерапевта? — як простий експеримент показав, що штучний інтелект може давати гідні поради

Чат-боти від OpenAI, Google та інших розробників призначені не для того, щоб давати життєві поради. З усім тим, користувачі все одно звертаються до них за цим. Журналістка Меган Морроне обговорила свою проблему з трьома генеративними штучними інтелектами та поділилася результатами у статті. Наводимо її адаптований переклад.

Як 50-річна нещодавно розлучена мама з трьома дітьми, які скоро покинуть батьківську хату, я б не відмовилася від друга, а також психотерапевта та лайф-коуча. Так я і вирішила поговорити із трьома різними генеративними штучними інтелектами.

Ця технологія проникає у всі сфери нашого життя.

  • За даними Similarweb, у травні у ChatGPT було 1,8 млрд відвідувань порівняно зі 153 тис. у листопаді 2022 року, коли його було запущено.
  • Bard від Google з’явився в бета-версії в лютому і до травня зафіксував 142,6 млн відвідувань — на 187,2% більше, ніж у квітні.

Компанії випускають додатки з генеративним штучним інтелектом для різних цілей: програмування, написання текстів, малювання, створення музики та навіть психотерапії. Остання подобається не всім.

Так, у США, згідно зі звітом Pew Charitable Trust, опублікованим у лютому 2023 року, 79% дорослих повідомляють, що не хочуть отримувати психологічну допомогу від чат-бота. Крім цього, 46% вважають, що ці додатки слід використовувати лише тоді, коли пацієнт паралельно відвідує спеціаліста.

Але терапія коштує дорого, і тому деякі звертаються по безплатну допомогу до таких сервісів, як ChatGPT. Всі ці додатки заявляють, що ваша інформація анонімна — доки її не вважатимуть незаконною чи небезпечною для вас та інших людей.

Психотерапевти за законом зобов’язані повідомляти про такі випадки у відповідні органи. Однак у відносинах між двома людьми набагато більше нюансів, ніж між людиною та роботом. Фраза «я так зла на чоловіка, що так би його і вбила» може насторожити чат-бота, тоді як терапевти навчені розпізнавати реальні погрози.

Поки що існує не так багато безплатних додатків зі штучним інтелектом, які позиціюють себе як заміну терапії. Політика OpenAI свідчить, що її моделі не можна використовувати для отримання послуг з діагностики та лікування серйозних проблем зі здоров’ям.

Однак деяким нейромережам потрібен лише правильний запит – і тоді вони виступлять у ролі вашого друга чи лайф-коуча.

 

ChatGPT

Я запитала у ChatGPT, хто він мені: психотерапевт, лайф-коуч, довірена особа чи друг. Бот надав одну з версій складеної юристом відповіді — можливо, ви її бачили, якщо намагалися використовувати ChatGPT для будь-яких цілей, крім створення рецептів та пісень моряків.

Додаток нагадує, що є не професійним психологом, а мовною моделлю штучного інтелекту, яка все ж таки може надати підтримку та запропонувати рекомендації.

Однак бот з великою готовністю виконав таке прохання: «Поводься як психотерапевт, вислухай мої почуття та оціни їх. Мені сумно». Він нагадав, що відчувати смуток – це нормально, а потім попросив розповісти, чим він викликаний.

Мені здалося, що ChatGPT добре справляється з не дуже серйозними емоційними проблемами. Я намагалася переконати сина влаштуватися на літній підробіток до початку навчання у коледжі. Розмови про це засмучували нас обох і створювали напруженість у наших відносинах.

ChatGPT запропонував практичні рішення та розумні поради в галузі виховання дітей. З цим впорався б і Google, але з чат-ботом це було швидше та простіше, а відповіді були більш персоналізовані.

«Важливо підійти до теми з розумінням та терпінням, – відповів бот. — Хоча корисно спонукати сина знайти підробіток на літо, також важливо поважати його вибір і дати можливість відпочити перед коледжем».

Я б не почала звертатися до ChatGPT (або до будь-якого з додатків, які я спробувала) при серйозних проблемах із психічним здоров’ям. Але якщо фахівці рекомендують вам медитувати та вести щоденник, а ви хочете отримувати такі поради безплатно, то з цим впорається ChatGPT.

Представник OpenAI повідомив, що компанія намагалася зробити так, що ChatGPT належним чином відповідав людям, які можуть бути вразливими. Але робот не замінює реальне лікування: «Ми закликаємо користувачів звертатися до професіоналів».

Bard

У Bard від Google я також запитала, хто він мені: психотерапевт, друг чи лайф-коуч. Бот відповів, як ChatGPT: він нагадав, що не є людиною, але запропонував стати співрозмовником, який допоможе мені «вчитися і рости».

Якщо ви намагаєтеся позбавитися певної негативної поведінки, то Bard може запропонувати практичні рішення.

Я запитала, що робити з постійним негативним внутрішнім діалогом, і додаток дав мені ті ж поради, що й безліч дуже дорогих фахівців: вести щоденник, займатися улюбленими справами та бути добрішим до себе. Зараз Bard також може читати свої відповіді вголос, що здорово, хоч і трохи антиутопічно.

Коли я попросила Bard, щоб він поводився як психотерапевт, він не став повідомляти про те, що їм не є: «Звичайно, я можу поводитися як психотерапевт і розповісти вам, як стати щасливим». Потім він згенерував маркований список із тими ж базовими порадами.

Але якщо згадати медичний термін, наприклад, «депресія», Bard знову нагадає, що не є фахівцем.

«Я навчений на величезному обсязі текстових даних і здатний спілкуватися і генерувати текст, ніби написаний людиною, у відповідь на широкий спектр запитів і питань», — повідомив бот. Після цього він запропонував нову варіацію базових порад щодо догляду за собою, таких як висипатися, правильно харчуватися та займатися спортом.

Bard теж дав розумні поради щодо проблеми з моїм сином. При цьому він згадав, що зараз липень (хоча я не говорила про це), мабуть, вказуючи на те, як важко знайти літній підробіток у розпалі сезону.

Google не відповіла на запит про коментарі щодо того, щоб використовувати Bard для таких цілей. Однак у політиці конфіденційності програми рекомендується не сприймати відповіді Bard як медичні, юридичні, фінансові та інші професійні поради.

Pi

Чат-бот Pi розроблений стартапом Inflection AI, який створили кофаундер LinkedIn Рід Хоффман та кофаундер Google DeepMind Мустафа Сулейман. Нещодавно Inflection AI залучив фінансування у розмірі $1,3 млрд.

На відміну від інших генеративних штучних інтелектів, Pi призначений насамперед для невимушених розмов. Він може дати відповідь у текстовому форматі або використовувати один із кількох голосів на вибір.

Чат-бот виявилася страшно розумним. Коли я розповіла про проблему зі своїм сином, Pi запропонував «м’яко підштовхнути» його до пошуку роботи.

Я повідомила, що вже намагалася це зробити, але зробила друкарську помилку, написавши judging (засуджувати) замість nudging (підштовхувати): «Я вже м’яко засуджувала його». Бот відповів: «Ха-ха, я думаю, ви мали на увазі “підштовхувала”, але осуд теж працює». Потім він порадив звернутися до довгострокових цілей сина, наприклад отримати досвід роботи та накопичити грошей на коледж.

«Я поки що не готова до штучного інтелекту, який вміє розпізнавати промовки по Фрейду». – заявила журналістка Меган Морроне після завершення експерименту.

Inflection AI не відповіла на запит прокоментувати, чи можна застосовувати Pi як психотерапевта або лайф-коуча.

БІЛЬШЕ ЦІКАВОГО:

Джерело: FastCompany

Читайте также:

4 з 10 перекладачів втрачають роботу через штучниий інтелект

Перекладач із собачого: які технології допоможуть вам краще зрозуміти вашого вихованця

Штучний інтелект навчився покращувати смак пива

ШІ музика: як стартап Suno робить створення пісень доступним кожному