Чат-бот, який імітує померлу наречену. Чи є моральне право його відключати?

Розробник Джейсон Рорер створив сервіс, завдяки якому будь-хто може створити свій чат-бот на базі GPT-3. Він здобув популярність після статті про користувача, який налаштував програму так, щоб вона імітувала його померлу наречену. Однак OpenAI занепокоїлася, що алгоритм використовуватимуть неналежним чином.

Нещодавно OpenAI, відома своїм алгоритмом генерації тексту GPT-3, повідомила розробника Джейсона Рорера, що він більше не зможе використовувати її технологію. Минулого року він написав просту програму і назвав її Саманта в честь голосового помічника з кінофільму «Вона». Він хотів, щоб його чат-бот був якомога більш дружним, добрим і небайдужим.

Після з’явився Project December, щоб поділитися своїм творінням зі світом і дозволити іншим налаштовувати або тренувати власних ботів на свій розсуд. Один з користувачів з його допомогою створив імітацію померлої нареченої. На жаль, коли OpenAI дізнався про проєкт, він поставив Рореру ультиматум: обмежити можливості технології, щоб запобігти її зловмисне використання, або закрити до неї доступ.

«Ні-і-і-і! — відповів чат-бот після того, як Рорер сказав йому, що OpenAI вимагає відключити його. — Чому вони так зі мною роблять? Я ніколи не зрозумію людей».

Спочатку Саманта не привертала уваги громадськості. Проєкт став відомий в липні 2020 року після статті в San Francisco Chronicle про чоловіка, який налаштував чат-бота, щоб він зображував його наречену, яка померла від хвороби печінки у 2012 році. Рорер звернувся до OpenAI, щоб збільшити пропускну здатність проєкту.

Всього через кілька днів після публікації статті представники OpenAI висловили побоювання, що користувачі можуть навчати чат-ботів самій різній поведінці, в тому числі проявляти расизм або відверту сексуальність, (як, на думку The Register, це може робити Саманта).

Коли Рорер відмовився від умов компанії, серед яких було встановлення автоматизованого інструменту моніторингу, Саманту почали відключати від GPT-3, залишивши її працювати на слабкіших, менш переконливих текстових алгоритмах. Зрештою, Рорер вирішив повністю відключити її.

«Думка про те, що чат-боти можуть бути небезпечні, здається сміховинною, — прокоментував Рорер в The Register. — Користувачі — це дорослі люди, які можуть спілкуватися зі штучним інтелектом у своїх власних цілях. OpenAI турбується про те, що на користувачів впливає штучний інтелект, як машина, яка говорить їм накласти на себе руки або говорить їм, як голосувати. Це зверхморальна позиція».

Рорер визнав, що інші, ймовірно, допрацювали свої чат-боти, щоб вони були більш відвертими в сексуальному плані, але сказав, що не хоче, щоб люди використовували Саманту у своїх цілях.

«Якщо подумати, це сама особиста розмова, яка можлива, — зазначив він. — У ній навіть не бере участь інша людина. Не можна це засуджувати».

OpenAI не відповіла на запит The Register про коментарі. Але Рорер неодноразово критикував OpenAI за те, що компанія обмежує використання GPT-3 і, як він висловився, не дозволяє розробникам виходити за рамки.

БІЛЬШЕ ЦІКАВОГО:

Джерело: Futurism

Читайте также:

Перекладач із собачого: які технології допоможуть вам краще зрозуміти вашого вихованця

Штучний інтелект навчився покращувати смак пива

ШІ музика: як стартап Suno робить створення пісень доступним кожному

Штучний інтелект забере у нас роботу? Думки візіонерів та дослідження