Современный бум в области автоматизации и робототехники во многом обусловлен развитием машинного обучения. Роботы становятся всё более совершенными, и учёные стремятся наделить их качествами, которые раньше считались исключительно человеческими. Исследователи из Колумбийского университета совершили значительный шаг в этом направлении, продемонстрировав, как искусственный интеллект (ИИ) может научиться предсказывать будущие действия другого робота, просто наблюдая за ним. Результаты этой новаторской работы были опубликованы в начале месяца в престижном журнале Nature Scientific Reports.
Может ли машина понять другого?
Эмпатия — способность сопереживать, понимать чувства и опыт другого существа — традиционно рассматривается как черта живых организмов. Однако прогресс в области ИИ ставит перед нами фундаментальный вопрос: возможно ли создать хотя бы подобие этой способности в машине? Это подводит нас к концепции «теории разума» — когнитивной способности приписывать себе и другим психические состояния (убеждения, намерения, желания) и использовать это для объяснения и предсказания поведения.
Термин «теория разума» был введён исследователями Дэвидом Премаком и Гаем Вудраффом в 1978 году в контексте изучения интеллекта приматов. Они определяли её как систему умозаключений о ненаблюдаемых напрямую психических состояниях, которая позволяет предвидеть действия других. У людей эта способность развивается примерно к четырёхлетнему возрасту, что связано с работами швейцарского психолога Жана Пиаже о преодолении детского эгоцентризма.
Эксперимент: робот-наблюдатель и робот-актёр
Команда под руководством профессора Хода Липсона из Колумбийского университета поставила перед собой амбициозную цель: проверить, может ли робот, оснащённый ИИ, научиться моделировать и предсказывать поведение другого робота, основываясь исключительно на визуальном наблюдении. Ключевой особенностью их подхода был отказ от предоставления ИИ какой-либо предварительной символической информации, меток данных или команд. Система должна была учиться «с чистого листа», подобно ребёнку, познающему мир.
Обратите внимание: Как злого охранника добром победили!.
В эксперименте использовались два основных компонента: «робот-актёр», запрограммированный на выполнение определённых действий, и «ИИ-наблюдатель», построенный на архитектуре глубокого обучения. Задача наблюдателя была не в простом предсказании следующего кадра видео, а в прогнозировании долгосрочного результата действий актёра — например, куда он в итоге переместится или какой объект возьмёт.
Как работает нейросеть-предсказатель
Глубокая нейронная сеть ИИ-наблюдателя состояла из кодирующей и декодирующей частей. Кодировщик, включавший свёрточные слои с нормализацией и функцией активации ReLU, извлекал из сырых изображений с верхней камеры ключевые признаки. Декодер, имеющий многомасштабную структуру, преобразовывал эти абстрактные представления обратно в изображение высокого разрешения — визуальный прогноз будущего. Вся сеть, содержащая около 610 тысяч нейронов и 570 тысяч параметров, обучалась минимизировать ошибку предсказания.
ИИ-наблюдатель получал на вход лишь последовательность необработанных пикселей, без каких-либо подсказок. Учёные сравнивают его работу с попыткой угадать концовку фильма, посмотрев только первую сцену. Несмотря на это, система продемонстрировала впечатляющую точность — 98,5% успеха в среднем по всем типам поведения робота-актёра.
Значение открытия и будущее социального ИИ
Это исследование имеет далеко идущие последствия. Способность машины предсказывать намерения и действия других агентов без явного программирования правил или использования языка открывает новые горизонты для понимания происхождения социального интеллекта. Более того, оно прокладывает путь к созданию роботов, которые смогут безопасно и эффективно взаимодействовать с людьми в динамичной среде, предугадывая наши действия.
Однако этот прорыв также поднимает важные этические вопросы, отражённые в заголовке статьи: является ли такая «машинная эмпатия» добром, ведущим к более гармоничному сосуществованию, или же она таит в себе потенциальные риски? Ответ на этот вопрос будет зависеть от того, как человечество решит применять эти технологии в будущем.
Больше интересных статей здесь: Психология.
Источник статьи: Эмпатия искусственного интелекта. Добро или зло?.