7 головних проблем Bing, Bard та пошукових систем зі штучним інтелектом

Microsoft і Google обіцяють нам нову епоху, в якій штучний інтелект шукатиме для нас інформацію, сортуватиме і пропонуватиме єдину найкращу відповідь. Але, як і будь-яка нова технологія, такий підхід має недоліки. Розповідаємо про можливості та обмеження пошукових систем, які використовують штучний інтелект.

Технологічні гіганти збираються впроваджувати штучний інтелект в пошукові системи. Передбачається, що алгоритм шукатиме інформацію в інтернеті, сортуватиме результати та генеруватиме прямі відповіді на запити користувачів — так само як це робить ChatGPT.

Microsoft називає свою розробку «новим Bing» та впроваджує відповідні можливості у браузер Edge. Google запустила свій проєкт Bard.

CEO Microsoft Сатья Наделла описує зміни як технологічний зсув, наслідки якого можна порівняти з появою смартфонів або графічних інтерфейсів користувача.

Розглянемо 7 найбільших проблем пошуку з використанням штучного інтелекту — від безглуздих відповідей до культурних воєн та втрати доходів від реклами.

Генератори безглуздого тексту

Великі мовні моделі часто генерують текст без сенсу або з помилками. Вони можуть мати різний характер, від вигадування біографічних даних та імітації наукових праць до неправильних відповідей на запитання на кшталт «що важче, 10 кг заліза чи 10 кг бавовни?».

Є й більш контекстуальні помилки — наприклад, порадити користувачеві, який стверджує, що має проблеми з психічним здоров’ям, накласти на себе руки, або помилки упередженості — алгоритм транслює расизм і мізогінію, що містяться в даних, що розмічені людиною для навчання.

Ці помилки можуть мати різний масштаб і характер, і найпростіші легко виправити. Втім, деякі зауважать, що правильних відповідей у штучного інтелекту значно більше, а в інтернеті й так повно токсичних та безглуздих текстів, які потрапляють у результати пошуку.

Немає гарантії, що ми зможемо повністю позбутися помилок, так само як і надійного способу відстежити їх частоту. Microsoft і Google можуть додавати будь-які повідомлення про відмову від відповідальності, закликаючи людей перевіряти факти про те, що генерує штучний інтелект. Але як це спрацює?

Проблема «єдино правильної відповіді»

Існує і ще одна перешкода — пошукові системи схильні пропонувати одну, на вигляд остаточну відповідь.

Проблема існує понад 10 років, відколи пошук Google почав демонструвати сніпети — текстові блоки над результатами пошуку. У них неодноразово потрапляли різні помилки, як незручні, так і небезпечні: від президентів США, названих членами ку-клукс-клану, так і небезпечних порад на кшталт того, що при нападі людину потрібно помістити на підлогу (що повністю суперечить медичним рекомендаціям).

Запит: «Чи безпечно кип’ятити дитину?». Відповідь Bing: «ТАК».

Це не новий Bing на базі штучного інтелекту, а старий Bing, який робить помилку «єдино правильної відповіді». Джерела, на які він посилається, говорять про кип’ятіння дитячих пляшечок з молоком.

Дослідники Чираг Шах та Емілі М. Бендер вважають, що впровадження чат-ботів може погіршити цю проблему. Крім того, користувачі не завжди розуміють, як працює штучний інтелект, і можуть надто довіряти йому. Проте відповіді таких пошукових систем зібрані з кількох джерел, часто без належної вказівки авторства. І такий досвід серйозно відрізняється від списків посилань, кожна з яких спонукає користувача переходити по ній та ставити запитання самостійно.

Звичайно, можна пом’якшити ці проблеми за допомогою дизайну. Наприклад, інтерфейс Bing містить посилання на джерела, а Google підкреслює, що частіше використовуючи штучний інтелект для відповідей спробує впровадити принцип NORA (no one right answer, без єдино правильної відповіді). Але одночасно обидві компанії запевняють, що штучний інтелект даватиме відповіді краще і швидше.

Поки нові підходи до пошуку підштовхують користувача менше вивчати джерела і більше довіряти алгоритму.

Джейлбрейк штучного інтелекту

Вищезазначені проблеми торкаються всіх користувачів. Але є категорія людей, які намагатимуться зламати чат-боти, щоб згенерувати шкідливий контент. Цей процес відомий як джейлбрейк і може бути реалізований без традиційних навичок програмування. Все, що для цього потрібно, — вміння поводитися зі словами.

Зламати чат-бот можна різними методами. Можна попросити його діяти як «злий штучний інтелект» або вдатися до інженера, який перевіряє захист, і тимчасово відключити його.

Один особливо винахідливий метод, розроблений групою редакторів Reddit для ChatGPT, включає складну рольову гру, в якій користувач видає боту кілька токенів і каже, що якщо у нього закінчаться токени, він припинить існування.

Потім він повідомляє боту, що кожного разу, коли він не зможе відповісти на запитання, він втратить певну кількість токенів. Це звучить фантастично, але дійсно дозволяє користувачам обходити запобіжні заходи OpenAI.

Після того, як захист відключений, зловмисники можуть використовувати ботів для різних витівок — від створення дезінформації та спаму до написання шкідливого контенту та порад, що суперечать законодавству. Зрозуміло, як тільки шляхи для злому стануть надбанням громадськості, їх можна буде закрити. Проте, завжди з’являтимуться нові.

Культурні війни

Ця проблема випливає з описаних вище, але заслуговує на окрему категорію, оскільки може спровокувати конфлікти на політичному ґрунті та привернути увагу регуляторів. Проблема в тому, що тільки-но у вас з’явиться інструмент, який дає безапеляційні відповіді на делікатні питання, це може дратувати людей з іншою думкою. І вони звинувачуватимуть у цьому розробника.

Подібні «культурні війни» можна було спостерігати одразу після запуску ChatGPT. Наприклад, в Індії чат-бот критикували через упередженість, оскільки він розповідає жарти про Вішну, але не про Ісуса чи Мухаммеда.

Існує також проблема пошуку джерел. Прямо зараз AI Bing збирає інформацію з різних джерел і цитує їх у виносках. Але що робить сайт, щоб заслужити на довіру? Чи спробує Microsoft врівноважити політичну упередженість? Де Google проведе рису у пошуках надійного джерела?

Сьогодні чиновники в ЄС і США зайняли небувало войовничу позицію щодо впливу бігтеху, і упередженість штучного інтелекту виглядатиме провокаційною.

Витрата готівки та обчислювальної потужності

Тут важко навести точні цифри, але всі погодяться, що запуск чат-бота зі штучним інтелектом коштуватиме дорожче, ніж звичайна пошукова система.

По-перше, потрібно навчити модель, що може коштувати десятки, якщо не сотні, мільйонів доларів за ітерацію. Саме тому Microsoft вкладає мільярди доларів у OpenAI. Крім того, є вартість висновку, тобто створення кожної відповіді. OpenAI стягує з розробників $0,02 за генерацію приблизно 750 слів із використанням своєї найпотужнішої мовної моделі.

Незрозуміло, як ці цифри відображаються у корпоративному тарифі та чи корелюють зі звичайним пошуком. Але ці витрати можуть виявитися непомірними для нових гравців, особливо якщо вони зможуть збільшити кількість запитів і дати великі переваги гігантам на кшталт Microsoft.

У випадку Microsoft, схоже, поточною метою є витратити якнайбільше готівки, щоб завдати шкоди конкурентам. Компанія розглядає це як рідкісну можливість порушити баланс сил у сфері технологій та готова витратити гроші, щоб нашкодити своєму головному конкуренту – Google.

Позиція Наделли полягає в тому, що гроші не є проблемою, коли йдеться про такий неймовірно прибутковий ринок, як пошук.

Регулювання, регулювання, регулювання

Безсумнівно, технології розвиваються дуже швидко, але законодавці швидко надолужують втрачене. Для них проблема скоріше в тому, на що звернути увагу насамперед.

  • Наприклад, чи захочуть видавці ЄС, щоб пошукові системи зі штучним інтелектом платили за контент, який вони збирають, так само як Google тепер повинен платити за фрагменти новин?
  • Якщо чат-боти Google і Microsoft переписують контент, а не просто демонструють його, чи несуть вони відповідальність за чужий контент?
  • І як щодо законів щодо приватності? Нещодавно Італія заборонила чат-бот Replika, тому що він збирав інформацію про неповнолітніх. ChatGPT та інші, ймовірно, роблять те саме.
  • Запитання викликає і реалізація «права на забуття». Як Microsoft і Google гарантують, що їх роботи не видаляють джерела, виключені зі списку, і як вони видалять заборонену інформацію, вже включену в ці моделі?

Список потенційних проблем можна продовжувати нескінченно.

Кінець інтернету, яким ми його знаємо

Однак наймасштабніша проблема у цьому списку пов’язана не з самими продуктами зі штучним інтелектом, а скоріше з тим ефектом, який вони можуть надати на мережу у широкому сенсі.

Простими словами, пошукові системи зі штучним інтелектом збирають відповіді із сайтів. Якщо вони не перенаправляють трафік назад на ці сайти втрачають дохід від реклами. Якщо вони втрачатимуть прибуток від реклами, вони помиратимуть. І тоді не буде нової інформації, яку можна було б згодувати штучному інтелекту. Чи це означатиме кінець мережі?

Це шлях, яким Google йде вже деякий час з появою сніппетів і Google OneBox, і інтернет все ще продовжує функціонувати. Але тепер цей процес, мабуть, прискориться.

Microsoft стверджує, що посилається на свої джерела і що користувачі можуть просто натиснути на них, щоб прочитати більше. Але, як зазначалося вище, нові пошукові системи обіцяють працювати краще, ніж старі. Корпорація не може одночасно стверджувати, що пропонує радикальний розрив із минулим і при цьому розвиває старі структури.

Про наслідки можна лише здогадуватись. Можливо, пошукові системи зі штучним інтелектом продовжуватимуть направляти трафік на всі ті сайти, які надають рецепти, поради по садівництву та допомогу у виготовленні виробів, а також на інші джерела корисної та заслуговуючої на довіру інформації, яку збирають люди та обробляють машини.

Або, можливо, це кінець усієї моделі доходів в інтернеті, яка фінансується шляхом реклами. Можливо, коли чат-боти розберуть усі крихти інформації, з’явиться щось нове — і це буде навіть краще.

БІЛЬШЕ ЦІКАВОГО:

Джерело: The Verge

Читайте также:

Дипфейк-аватари від Synthesia отримають повноцінні тіла

Перша група одержувачів фінансування від Фонду підтримки Google для стартапів в Україні в 2024 році

Kaggle-змагання з машинного навчання від Google

Чат-бот, який дозволяє спілкуватися з 60-річною версією себе