У 1637 році французький філософ і математик Рене Декарт поставив питання про те, чи може машина мислити. Через більш ніж 300 років англійський математик Алан Т’юрінг переформулював філософський запит на прикладніший, який згодом ліг в основу так званого тесту Тьюринга. Він запитував: «Чи може машина спілкуватися з людиною таким чином, щоб вона не зрозуміла, що спілкується з роботом, а не з собі подібним?».
Тепер вчені з Каліфорнійського університету в Сан-Дієго вважають, що у них є відповідь на це питання. Вони провели дослідження, в рамках якого випробувані спілкувалися протягом п’яти хвилин з іншими людьми або різними моделями штучного інтелекту.
В результаті вдалося з’ясувати, що у 54% випадків люди приймали GPT-4 за іншу людину. Версія GPT-3.5 досягла показника 50%. При цьому люди розпізнавали інших людей із ймовірністю 67%. Може здатися, що досягнення ChatGPT на рівні вгадування. Однак науковці наголошують, що в такому випадку учасники експерименту знали, що можуть спілкуватися з людиною або нейромережею. У звичайному житті люди набагато меншою мірою готові до того, що їх співрозмовником може бути штучний інтелект.
Крім того, для порівняння в експерименті брала участь система ELIZA. Її вигадали в Массачусетському технологічному інституті в середині 1960-х років для проходження тесту Тьюринга. Для свого часу це була дивовижна машина, однак, звісно, вона не могла використовувати великі мовні дані, якими оперують сучасні нейромережі.
ELIZA обмежувалася більш стрімкими стандартними відповідями. На короткому відрізку часу вона могла когось ввести в оману. Але незабаром спілкування з машиною ставало очевидним.
«Сучасні мовні моделі нескінченно гнучкі. Вони здатні синтезувати відповіді на широке коло питань, говорити різними мовами, використовувати різні специфічні обороти та терміни з різних соціальних груп, демонструвати навіть характер та цінності. Це величезний крок уперед порівняно з тим, що програмується вручну людиною, хоч би якою розумною та талановитою вона була». — каже Нелл Вотсон, науковець по штучному інтелекту.
Якби ELIZA набрала бали також на рівні вгадування, то можна було б говорити, що учасники експерименту випадково намагалися «потрапити в яблучко». А в експерименті ELIZA за людину прийняли лише 22% піддослідних.
Автори роботи впевнені, що це доводить: ChatGPT здатний пройти тест Тюрінга. Втім, вони не вважають, що це рівнозначно визнанню, ніби нейромережі так само розумні, як і люди. Тест Тьюринга у цьому вигляді направлений на те, щоб піддослідний виявив машину по якихось лінгвістичних чи соціальних аспектах, а не за інтелектуальних. Грубо кажучи, він про те, чи може нейромережа переконувати людей, що вона людина, а не про те, чи здатна вона мислити подібно до людини.
Науковці підкреслюють, що їхній експеримент доводить не тільки проривні можливості нейромереж, а і їхню потенційну небезпеку. Адже такі моделі можуть використовуватися шахраями.
БІЛЬШЕ ЦІКАВОГО: