Искусственный интеллект (artificial intelligence, AI) — одна из самых противоречивых областей науки, предмет горячих споров и, в некотором роде, инструмент для мифологизации будущего. Наша редакция подготовила перевод статьи, прочтение которой поможет осознать некоторые аспекты создания и развития технологий AI.
Непонимание
В прошлом году на дорогах Монмут-Каунти (штат Нью-Джерси, США) появился странный беспилотный автомобиль. Экспериментальное средство передвижения, разработанное исследователями Nvidia, внешне не отличалось от других автономных машин, но и не было похоже на то, что ранее демонстрировали Google, Tesla или General Motors. Вместо выполнения инструкций программистов, автомобиль полагался на алгоритм, который обучился вождению, наблюдая за тем, как это делает человек.
Звучит впечатляюще, но не совсем понятно, как машина принимает решения. Информация от датчиков автомобиля поступает в огромную сеть искусственных нейронов, которые обрабатывают данные, а затем передают команды, необходимые для управления рулевым колесом, тормозами и другими системами. Результат соответствует реакциям, которые вы ожидаете от человека-водителя. Но что, если однажды он сделает что-то неожиданное: врежется в дерево или заглохнет на зелёном сигнале светофора? Система настолько сложна, что даже инженеры, разработавшие её, не всегда могут установить причину отдельных действий. И нет очевидного способа создать такую систему, которая всегда может пояснить свои действия.
Таинственный ум этого автомобиля свидетельствует о проблеме, связанной с AI. Технология глубокого обучения в течение последних лет неоднократно демонстрировала свою эффективность и широко применялась для таких задач, как распознавание объектов на изображении, голоса и создания языкового перевода. Сейчас есть надежда, что такие же методы помогут диагностировать тяжёлые болезни на ранних стадиях, принимать решения в торговле и преобразовывать целые отрасли нашей жизни.
Но этого не случится, если мы не найдём способ сделать глубокое обучение более понятным и подконтрольным как пользователям, так и создателям. Пока что сложно предсказать, когда могут произойти сбои, а они неизбежны. И это — одна из причин, по которой автомобиль Nvidia все ещё на стадии эксперимента.
Уже сегодня математические модели используются для определения заключённых, которые заслуживают условно-досрочного освобождения; для выявления клиентов на получение кредита в финансовом учреждении или для трудоустройства на работу. Если бы вы могли получить доступ к этим математическим моделям, их действия стали бы понятнее. Но банки, работодатели и правоохранители теперь обращают внимание на более сложные подходы, которые могут сделать автоматизированное принятие решений совершенно непостижимым для человека.
«— Эта проблема уже актуальна, и в будущем она будет стоять всё острее, — говорит Томми Яаккола (Tommi Jaakkola), профессор MIT, работающий над приложениями машинного обучения. — Вне зависимости о того, инвестиционное ли это решение, медицинское или военное, вы не захотите просто полагаться на метод из “чёрного ящика”.»
Начиная с лета 2018 года, Евросоюз может потребовать, чтобы компании давали пользователям объяснения решений, которые принимают автоматизированные системы. Но это невозможно даже для относительно простых систем: приложения и веб-сайты, которые используют глубокое обучение для показа рекламы или рекомендации песен. Компьютеры, которые запускают эти службы, программируются сами по себе, и делают это непонятным для нас способом. Даже инженеры, которые создают эти приложения, не могут полностью объяснить их поведение.
Конечно, и люди не всегда могут в точности объяснить свои мыслительные процессы, но мы находим способы интуитивно доверять и оценивать поведение других. Возможно ли такое доверие к машинам, которые принимают решения иначе, чем люди?
Вклад в медицину
В 2015 году исследовательская группа при госпитале Маунт Синай (Mount Sinai Hospital) в Нью-Йорке решила применять глубокое обучение в обширной базе данных о пациентах. Набор данных содержит сотни переменных, взятых из результатов тестирования, визитов к врачу и т. д. Полученная в результате программа, которую исследователи назвали Deep Patient, была обучена при помощи использования данных примерно 700 тыс. человек; а в тестах на новых данных она оказалась невероятно хороша для прогнозирования болезни. Без какой-либо инструкции Deep Patient обнаружила паттерны, скрытые в больничных данных и указывающие на то, что люди находились на стадии развития новых болезней, включая рак печени.
Джоэл Дадли (Joel Dudley), возглавляющий команду Маунт Синай, указывает на то, что Deep Patient озадачивает врачей. Оказывается, она на удивление хорошо обнаруживает зарождение психических расстройств, таких как шизофрения. Но поскольку шизофрения, как известно, трудно поддаётся прогнозам медиков, Дадли задался вопросом, как это можно пояснить. Новый инструмент не даёт представления о том, как он это делает. Если программа вроде Deep Patient на самом деле собирается помочь врачам, в идеале она должна предоставить обоснование своего прогноза, чтобы убедить специалистов и оправдать курс лечения. «Мы можем построить эти модели, но мы не знаем, как они работают», — печально подытоживает Дадли.
Глубокое обучение
Искусственный интеллект не всегда был таким. С самого начала бытовали две точки зрения, касающиеся того, насколько понятным или объяснимым должен быть AI. Многие думали, что имеет смысл создавать машины, которые рассуждают согласно правилам и логике, а их внутренняя работа является прозрачной для любого, кто хотел бы изучить код. Другие считали, что интеллект будет проявляться, если машины черпают вдохновение в биологии и учатся, наблюдая и переживая. Вместо того, чтобы программист писал команды для решения определённых проблем, программа генерирует свой собственный алгоритм на основе заданных примеров и желаемого конечного результата. Технологии машинного обучения, которые позже эволюционировали в самые мощные сегодня AI-системы, следуют последнему пути: машина, по сути, сама программирует себя.
В 1960-1970-х годах этот подход имел ограниченное практическое применение, Затем интерес к компьютеризации многих отраслей и появлению больших массивов данных возобновился. Это вдохновило разработку более мощных техник, таких как искусственная нейронная сеть. К 1990-м годам нейронные сети могли автоматически оцифровывать рукописные символы. Но только в начале этого десятилетия, после значительных усовершенствований, большие или «глубокие» нейронные сети продемонстрировали значительное улучшение автоматического восприятия.
Развитие возможностей AI сегодня обусловлено именно глубоким обучением; оно трансформировало компьютерное зрение и улучшило машинный перевод. Работа любой технологии машинного обучения более загадочна для IT-специалистов, чем вручную написанная система. Это не означает, что все будущие техники искусственного интеллекта будут также распознаны. Но по своей природе, глубокое обучение — «чёрный ящик».
Вы не можете просто заглянуть внутрь глубокой нейронной сети и понять, как она работает. Формирование рассуждений сети встроено в поведение тысячей смоделированных нейронов, расположенных в десятках и сотнях взаимосвязанных слоёв. Каждый нейрон в первом слое получает вводную, как и интенсивность пикселя в изображении, а затем делает вычисление перед выводом нового сигнала. Эти выходные сигналы передаются в сложной сети нейронам следующего уровня, и так далее, пока не будет получен общий результат. Кроме того, существует процесс, известный как обратное распространение ошибки обучения, который корректирует вычисления отдельных нейронов таким образом, чтобы сеть научилась выдавать желаемый результат.
Многие уровни в глубокой сети позволяют распознавать вещи разной сложности абстракции. Например, в системе, предназначенной для распознавания изображения собак, нижние слои распознают простые вещи, такие как контуры или цвет; более высокие слои распознают более сложные вещи, такие как шерсть или глаза; и уже самый верхний слой идентифицирует всё это как собаку. Такой же подход может быть применён и к другим вводным, которые заставляют машину обучать себя: звукам, которые составляют из слов речь, буквам и словам, которые создают предложения в тексте, движениям рулевого колеса, необходимым для вождения.
БОЛЬШЕ О МАШИННОМ ОБУЧЕНИИ:
Опыт применения
Первые стратегии использовались для того, чтобы попытаться отследить и затем более подробно объяснить, что происходит в таких системах. В 2015 году исследователи из Google изменили алгоритм распознавания изображений на основе глубокого обучения, чтобы вместо определения объектов на фотографиях он генерировал или изменял их. За счёт эффективного выполнения алгоритма в обратном порядке, они хотели обнаружить функции, которые программа использует для распознавания, например, птиц или зданий.
Полученные изображения, созданные проектом Deep Dream, продемонстрировали гротескных животных из облаков и растений, радужные пагоды, цветущие среди лесов и горных хребтов. Изображения доказали, что глубокое обучение необязательно должно быть непостижимым: алгоритмы основываются на знакомых визуальных функциях, таких как птичий клюв или перья. Но изображения также демонстрировали, насколько глубокое обучение отличается от человеческого восприятия, и как оно интерпретирует факты, которые мы могли бы проигнорировать. Пример: когда алгоритм создавал изображение гантели, он также сгенерировал человеческую руку, удерживающую её. Машина решила, что рука является частью вещи.
Дальнейший прогресс обеспечили идеи, заимствованные из нейронауки и когнитивной науки. Группа во главе с доктором Джеффом Клюном (Jeff Clune) из Университета Вайоминга использовала аналоговый эквивалент оптических иллюзий для тестирования глубоких нейронных сетей. В 2015 году группа Клюна показала, как определённые изображения могут обмануть такую сеть и заставить её воспринимать вещи, которых там нет, потому что изображения используют низкоуровневые шаблоны, которые ищет система.
Регина Барзилай (Regina Barzilay), профессор MIT, намерена применять машинное обучение в медицине. В возрасте 43 лет у Барзилай был диагностирован рак молочной железы. Кроме очевидных трудностей, профессор также была обеспокоена тем, что самые современные методы статистического и машинного обучения не использовались в онкологических исследованиях. AI обладает огромным потенциалом для совершенствования медицины, но этот потенциал будет означать выход за рамки одних лишь медицинских записей. Она предлагает использовать больше необработанных данных, которые сейчас недостаточно эксплуатируются. После окончания своего лечения в прошлом году, Барзилай и её ученики начали работать с врачами из больницы Массачусетса, чтобы разработать систему, способную выявлять патологии и идентифицировать пациентов с определёнными клиническими состояниями для исследования.
Вооружённые силы США вкладывают миллиарды в проекты, которые будут использовать машинное обучение. Аналитики тестируют автоматический поиск закономерностей в разведческих данных; разрабатываются многие беспилотные наземные и воздушные аппараты. Но солдаты, вероятно, будут чувствовать себя некомфортно в роботизированном танке, который не будет им ничего объяснять, а аналитики будут неохотно работать с информацией без каких-либо рассуждений.
Карлос Гестрин (Carlos Guestrin), профессор Вашингтонского университета, вместе с коллегами разработал способ, который позволяет системам машинного обучения обосновывать свои результаты. Компьютер автоматически находит несколько примеров из набора данных и даёт по ним короткое пояснение. Например, система для изучения электронной почты террориста может обрабатывать миллионы сообщений. Используя подход вашингтонской команды, она может выделить определённые ключевые слова в текстах, что будет служить доказательством.
Один из недостатков этого и других подобных подходов заключается в том, что предоставленные объяснения всегда будут упрощены, а значит, некоторые важные сведения могут быть утеряны. «Мы не достигли той мечты, в которой искусственный интеллект беседует с человеком и способен объяснить свои действия», — говорит Гестрин.
Понимание построения рассуждений AI также будет иметь решающее значение, если технология станет общей и полезной частью нашей повседневной жизни. Том Грубер (Tom Gruber), возглавляющий команду Siri в Apple, говорит, что объяснимость — это основная цель для его команды, поскольку она пытается сделать Siri более «умным» и способным виртуальным помощником. Руслан Салахутдинов (Ruslan Salakhutdinov), директор отдела исследований AI в Apple и профессор Университета Карнеги-Меллона, видит объяснимость основой эволюции отношений между людьми и машинами.
Человек не может обосновать многие аспекты своего поведения, вполне возможно, что и у искусственного интеллекта не получится объяснить всё, что он делает. Если это так, то на каком-то этапе нам придётся просто довериться решениям алгоритмов или обходиться без их использования.
ЧИТАЙТЕ ТАКЖЕ:
Источник: Technologyreview