Акторів дубляжу все частіше залучають для навчання штучного інтелекту. Які наслідки це матиме?

Працівники з різних галузей побоюються, що їх замінять на програму. Це вже відбувається в Латинській Америці: акторів озвучення наймають для запису датасетів та навчання алгоритмів, які зрештою конкуруватимуть з ними за ролі. Розробники штучного інтелекту для дубляжу обіцяють скоротити витрати для продюсерів, дозволивши кіноперсонажам говорити будь-якою мовою, зберігаючи оригінальний голос.

Багато компаній пропонують дубляж на основі штучного інтелекту іспанською мовою, хоча небагато з тих, хто приходить в Латинську Америку, родом з іспаномовних країн. Підхід завжди трохи відрізняється.

  • Deepdub із Тель-Авіва обіцяє синтетичні голоси, які відтворюють цілий спектр людських емоцій, що підходить для телешоу та фільмів.
  • Лондонська Papercup робить ставку на нон-фікшн — контент на кшталт того, що показують BBC, Sky News та Discovery.
  • Klling із Сеула поєднує дубляж на базі штучного інтелекту із технологією дипфейків, синхронізуючи рухи губ акторів із голосами, створеними комп’ютером.

Попри відмінності, всі ці компанії захищають свій продукт як дешевшу та швидшу альтернативу акторам дубляжу.

Оз Краковски, директор з доходів у Deepdub, розповідає, що коли потрібно дублювати голлівудські хіти іншими мовами, штучні голоси мають перевагу. Штучний інтелект дозволить персонажу заговорити голосом зірки — наприклад, Моргана Фрімана, — зберігши оригінальний голос, при цьому використовуючи бездоганну іспанську з будь-яким місцевим акцентом або діалектом.

Втім, акторів та їхніх шанувальників у Латинській Америці це не вражає. Мексиканська актриса дубляжу Габріела Гусман каже: «Можливо, штучний інтелект може імітувати голос, але йому ніколи не вдасться грати як справжній актор. У ньому просто немає душі, і крапка». Втім, критика стосується не лише абстрактних понять, а й цілком практичних, які виходять за межі роботи на екрані.

«Як привести штучний інтелект на Comic-Con, щоб поговорити з аудиторією? Це просто неможливо… Актори дубляжу мають шанувальників» — розмірковує Гусман.

Попри те, що програми на основі штучного інтелекту для дубляжу здаються безликими, вони зрештою залежать від роботи людей, тому що софт навчається на реальних виступах: для навчання необхідні актори. Разом з технічною командою вони навчають штучний інтелект навичкам для створення штучного голосу із тисяч записаних фрагментів, найчастіше випадкових та безглуздих.

«Вони по кілька годин змушують акторів записувати безліч слів та окремих звуків у різних стилях та тональностях», — розповідає актор дубляжу. Він попросив зберегти його анонімність, оскільки боїться потрапити до чорного списку студій дубляжу.

Аргентинський актор дубляжу Алехандро Грауе розповідає, що запрошення на запис для таких компаній почали з’являтися у Буенос-Айресі кілька місяців тому. «Коли мені запропонували роботу, то сказали, що потрібно буде записати 10 тисяч слів і мені заплатять 10 тисяч песо (близько $52 за офіційним курсом)» — згадує він.

Два джерела в галузі, які попросили про анонімність, боячись втратити роботу, підтвердили, що Буенос-Айрес є одним із місць, де збирають дані компанії з Європи та Азії, які розробляють штучний інтелект для дубляжу. Ймовірно, це пов’язано зі сприятливим курсом валюти, через що навчати штучний інтелект у цих країнах відносно дешево.

Втім, самі компанії стверджують, що набагато важливіша довгострокова економія, яку вони пропонують. Справа не в тому, що записувати в Аргентині дешевше, але самі записи за участю людей є короткостроковими витратами.

Вони обіцяють, що після того, як записи використають для створення моделей у «банку голосів» або навчання згенерованих комп’ютером голосів, що імітують реальні, продюсерам кіно та телебачення доведеться платити лише за захищені авторським правом голоси. Витрати на перекладачів, акторів, зведення звуку та студію звукозапису залишаться у минулому.

Анонімне джерело розповіло виданню Rest of World, що компанія дубляжу змусила його підписати угоду про нерозголошення, хоча вона просто записувала звуки для датасетів, а не якийсь специфічний контент. Він також додав, що тому актори не зможуть публічно претендувати на доходи компаній зі штучних голосів.

На додаток до записів голосів використовуються інші способи збору даних. Метод підбору голосу навчає штучний інтелект на оригінальних голосах з фільму. Так програма зможе вивчити звукові та тональні характеристики вищого ешелону голлівудських акторів, щоб перекласти та адаптувати їх іншою мовою. Краковськи з Deepdub розповідає, що для цього потрібно лише 2-3 хвилини голосових даних актора.

Deepdub була першою компанією, яка продублювала цілий художній фільм іспанською за допомогою штучного інтелекту. Це був американський трилер «Щоразу, як я вмираю», випущений у 2019 році.

Для нього штучний інтелект створив доріжку «нейтральною іспанською» (español neutro) — усним діалектом, який існує тільки в дубльованих фільмах і телепередачах, призначених для різноманітного ринку в 550 млн осіб, які проживають переважно в Мексиці, Колумбії, Аргентині, США та Іспанії (хоча європейська іспанська має свій «нейтральний» варіант).

Краковськи вважає, що згодом дубляж за допомогою штучного інтелекту може усунути необхідність у «нейтральній іспанській».

«У майбутньому ми зможемо урізноманітнити його діалектами та акцентами, що дозволить нам створювати ще більш географічно специфічний контент» — каже Краковськи з Deepdub.

Зараз аудиторія також має проблеми з дубляжем, який створений штучним інтелектом для контенту, менш орієнтованого на знаменитостей. Так, коли в роликах на YouTube, озвучених Алехандро Грауе, його голос замінили на штучний, це викликало серйозну критику глядачів.

«Не псуйте це таким жахливим дубляжем!» — написав один із коментаторів.

Але розробники впевнені, що аудиторія зрештою звикне до цього. Щобільше, Філ Ньюсом, який відповідає за продакшен у MiLa Media, студії, яка працювала над фільмом «Щоразу, як я вмираю», вважає, що дистриб’юторам байдуже, яким буде дубляж.

Однак це ще початок, і робота акторів та штучного інтелекту все ще дивним чином перетинається. Наприклад, минулого року на Disney+ відбулася прем’єра серіалу «Обі-Ван Кенобі». В англійській версії для персонажа Дарта Вейдера використовувався голос, створений штучним інтелектом від української компанії Respeecher. Алгоритм відтворював характерний хрипкий голос Джеймса Ерла Джонса.

Однак у версії для Латинської Америки його озвучив аргентино-мексиканський актор Себастьян Япур, який грає роль з 2015 року — фактично людина продублювала актора на базі штучного інтелекту.

Япур вважає, що продюсери «клонували» голос Джонса через ностальгію: «Важко замінити усталених персонажів». Однак, за його словами, хоча в США технологію штучного інтелекту іноді використовують з художньою метою, що в Латинській Америці «просто намагаються зробити щось, що вже дуже дешево, ще дешевше».

БІЛЬШЕ ЦІКАВОГО:

Джерело: RestOfWorld

Читайте также:

Дослідження: люди вже не можуть відрізняти спілкування з людиною та ChatGPT

Технології на Євро-2024, які змінюють футбол

Навіщо AI у телевізорі? 7 фішок свіжої лінійки телевізорів Samsung

Дипфейк-аватари від Synthesia отримають повноцінні тіла