Эмпатия искусственного интелекта. Добро или зло?

Машинное обучение искусственному интеллекту (ИИ) подпитывает нынешний коммерческий бум в области автоматизации, и роботы становятся все более сложными. В качестве шага вперед в наделении роботов человекоподобным поведением исследователи из Колумбийского университета показали, как машинное обучение ИИ может предсказывать будущие действия робота путем наблюдения, и опубликовали свои результаты в начале этого месяца в Nature Scientific Reports.

Эмпатия, способность понимать чувства или переживания другого человека и относиться к ним опосредованно, - это компетенция, которая определенно относится к биологической сфере. Но может ли машина быть наделена каким-то подобием этой способности?

Эта способность к ментализации, известная как теория разума, включает в себя вывод о том, что чувствуют и думают другие. Жан Пиаже (1896-1980) - швейцарский психолог и эпистемолог, известный своим вкладом в понимание когнитивного развития детей. Согласно Пиаже, мыслительные процессы детей в основном эгоцентричны вплоть до четырехлетнего возраста, когда их исполнительная функция начинает улучшаться и появляется теория разума.

Фраза “теория разума” была выдвинута исследователями Университета Пенсильвании Дэвидом Премарком и Гаем Вудраффом, когда они опубликовали свое исследование об интеллекте приматов в Поведенческих и мозговых науках в 1978 году.

“У человека есть теория разума, если он приписывает психические состояния себе и другим”, - писали Премарк и Вудрафф. “Система умозаключений такого рода правильно рассматривается как теория, потому что такие состояния непосредственно не наблюдаемы, и система может быть использована для предсказания поведения других.”

Профессор Колумбийского университета Ход Липсон возглавил исследование с участием исследователей Карла Вондрика и Боюаня Чэня. Команда стремилась проверить свою гипотезу о том, что робот может моделировать поведение другого только с помощью наблюдения.

Обратите внимание: Как злого охранника добром победили!.

Что отличает их исследования от других исследований по моделированию поведения машин ИИ, так это то, что их дизайн не будет зависеть от предоставления предварительных входных предположений или символической информации.

Исследователи создали робота-актера, способного выполнять заранее запрограммированное поведение, и наблюдателя ИИ для выполнения предсказаний изображений с использованием архитектуры глубокого обучения.

“Наша цель состоит в том, чтобы увидеть, может ли наблюдатель предсказать долгосрочный результат поведения актера, а не просто следующий кадр в видеопоследовательности, как это делают многие предикторы от кадра к кадру”, - пишут исследователи.

Глубокая нейронная сеть имеет кодирующую сеть, где слой пакетной нормализации и нелинейная функция активации ReLU следуют за каждым сверточным слоем. Сеть декодера является многомасштабной, предназначенной для преобразования грубых представлений объектов в более высокое разрешение. Сеть оптимизируется с использованием среднеквадратичной потери ошибок. В общей сложности в сети предсказания изображений насчитывается 609 984 нейрона, 570 000 параметров и 12 полностью свернутых слоев.

Наблюдатель ИИ “видит” необработанные изображения камеры с верхней камеры, которая записывает робота-актера. Наблюдателю ИИ не предоставляется никакой сопутствующей информации с необработанными изображениями, такими как моторные команды, сегментация, координаты траектории или маркировка данных. Вывод ИИ-наблюдателя состоит из одного изображения того, что он предсказывает, будет результатом действий робота-актера, таким образом, это визуальное представление его наблюдений.

Наблюдателю ИИ показывали только ограниченное количество изображений. По словам исследователей, работа ИИ-наблюдателя была похожа на предсказание того, как закончится фильм, основанное исключительно на просмотре первой сцены.

“Наш ИИ-наблюдатель достигает 98,5% успеха в среднем по всем четырем типам поведения робота-актера", - сообщили исследователи.

“Способность машины предсказывать действия и планы других агентов без явных символических рассуждений, языка или фоновых знаний может пролить свет на происхождение социального интеллекта, а также проложить путь к более социально приспособленным машинам.”

Больше интересных статей здесь: Психология.

Источник статьи: Эмпатия искусственного интелекта. Добро или зло?.