Дослідження: люди вже не можуть відрізняти спілкування з людиною та ChatGPT

У 1637 році французький філософ і математик Рене Декарт поставив питання про те, чи може машина мислити. Через більш ніж 300 років англійський математик Алан Т’юрінг переформулював філософський запит на прикладніший, який згодом ліг в основу так званого тесту Тьюринга. Він запитував: «Чи може машина спілкуватися з людиною таким чином, щоб вона не зрозуміла, що спілкується з роботом, а не з собі подібним?».

Тепер вчені з Каліфорнійського університету в Сан-Дієго вважають, що у них є відповідь на це питання. Вони провели дослідження, в рамках якого випробувані спілкувалися протягом п’яти хвилин з іншими людьми або різними моделями штучного інтелекту.

В результаті вдалося з’ясувати, що у 54% випадків люди приймали GPT-4 за іншу людину. Версія GPT-3.5 досягла показника 50%. При цьому люди розпізнавали інших людей із ймовірністю 67%. Може здатися, що досягнення ChatGPT на рівні вгадування. Однак науковці наголошують, що в такому випадку учасники експерименту знали, що можуть спілкуватися з людиною або нейромережею. У звичайному житті люди набагато меншою мірою готові до того, що їх співрозмовником може бути штучний інтелект.

Крім того, для порівняння в експерименті брала участь система ELIZA. Її вигадали в Массачусетському технологічному інституті в середині 1960-х років для проходження тесту Тьюринга. Для свого часу це була дивовижна машина, однак, звісно, ​​вона не могла використовувати великі мовні дані, якими оперують сучасні нейромережі.

ELIZA обмежувалася більш стрімкими стандартними відповідями. На короткому відрізку часу вона могла когось ввести в оману. Але незабаром спілкування з машиною ставало очевидним.

«Сучасні мовні моделі нескінченно гнучкі. Вони здатні синтезувати відповіді на широке коло питань, говорити різними мовами, використовувати різні специфічні обороти та терміни з різних соціальних груп, демонструвати навіть характер та цінності. Це величезний крок уперед порівняно з тим, що програмується вручну людиною, хоч би якою розумною та талановитою вона була». — каже Нелл Вотсон, науковець по штучному інтелекту.

Якби ELIZA набрала бали також на рівні вгадування, то можна було б говорити, що учасники експерименту випадково намагалися «потрапити в яблучко». А в експерименті ELIZA за людину прийняли лише 22% піддослідних.

Автори роботи впевнені, що це доводить: ChatGPT здатний пройти тест Тюрінга. Втім, вони не вважають, що це рівнозначно визнанню, ніби нейромережі так само розумні, як і люди. Тест Тьюринга у цьому вигляді направлений на те, щоб піддослідний виявив машину по якихось лінгвістичних чи соціальних аспектах, а не за інтелектуальних. Грубо кажучи, він про те, чи може нейромережа переконувати людей, що вона людина, а не про те, чи здатна вона мислити подібно до людини.

Науковці підкреслюють, що їхній експеримент доводить не тільки проривні можливості нейромереж, а і їхню потенційну небезпеку. Адже такі моделі можуть використовуватися шахраями.

БІЛЬШЕ ЦІКАВОГО:

Читайте также:

9 фантастичних фільмів, де штучний інтелект керує машинами у реальному світі

Apple Intelligence проти фішок зі штучним інтелектом Google Pixel — у кого нововведення цікавіше?

Розумні окуляри які відстежують емоції та харчові звички

Штучний інтелект в сфері освіти: як використовувати нейромережі вчителям