Над кем смеется робот: может ли машина обладать эмоциональным интеллектом

Эмоциональный интеллект может быть присущ не только человеку, но и машине, уверен научный руководитель Института интеллектуальных кибернетических систем Национального исследовательского ядерного университета «МИФИ» Алексей Самсонович. С разрешения пресс-центра приводим отрывки из интервью, опубликованного на mephi.ru.

ДОСЬЕ

Алексей Самсонович — ​профессор кафедры кибернетики, научный руководитель Института интеллектуальных кибернетических систем, руководитель лаборатории BICA Lab. Область научных интересов — ​теория биологических непрерывно-аттракторных нейронных сетей, методика семантического картирования, когнитивные архитектуры. Работает над соединением когнитивного (eBICA) и нейросетевого подходов в искусственном интеллекте. По итогам прошлого года вошел в топ‑2 % самых цитируемых ученых мира.

Агенты не из «Матрицы»

— Нейроинформатика не просто переживает бум развития — ​там происходит революция. Чем это вызвано?

— Стали доступны немыслимые прежде вычислительные мощности, новые эффективные алгоритмы и большие данные, на которых можно обучать нейросетевые модели. Представьте себе, что берется единая нейросетевая методика и ее вариации применяются к самым разным прикладным задачам: это и атомные реакторы, и финансы, образование и предсказание погоды, медицина — ​в ней особенно много точек приложения, от онкологии до психиатрии. Большие же языковые модели могут применяться вообще повсеместно — ​это любые агенты, которые могут с вами разговаривать, понимать вас и отвечать вам на естественном языке.

— Что здесь понимается под агентом?

— Когнитивная система, погруженная в некую среду, где она имеет средства восприятия информации и совершения действий, а также потребности, цели и возможности их достижения. Агент может быть как виртуальным (программа), так и физическим (робот). В любом случае это сущность, которая работает как индивидуум, взаимодействующий, как правило, с человеком.

— Может ли агент обладать эмоциональным интеллектом?

— Когда говорят об эмоциональном интеллекте, обычно имеют в виду способность понимать проявления эмоций, выражать эмоции, рассуждать о них, адекватно реагировать на них и управлять ими — ​использовать для достижения своих целей. До сих пор совокупность таких способностей считалась присущей на высоком уровне только человеку, а сейчас предпринимаются попытки воплотить те же качества в машине, в искусственном интеллекте.

Общепризнанных базовых эмоций всего шесть: радость, гнев, печаль, страх, отвращение и удивление. Но есть более сложные, социальные, несводимые к этим шести, например: стыд, зависть, ревность, сострадание, эмпатия, злорадство, обида, чувство юмора.

Несмешные анекдоты

— Разве чувство юмора — ​эмоция?

— Действительно, чувство юмора, стыда, ревности и т. п. часто относят к категории чувств, отличая их от эмоций. Я же пользуюсь другой терминологией: эмоция — ​это особое психическое состояние субъекта, а чувство — ​внутреннее отношение субъекта к другому субъекту либо к самому себе. В этом смысле и юмор, и стыд — ​эмоции, и они же связаны с чувствами. Но если стыд психологам удалось разложить по полочкам, то подвести под формализацию юмор оказалось сложнее всего. Сам факт, что машина до сих пор не может генерировать по-настоящему смешные анекдоты, говорит о том, что понимания этого явления нет: если бы человек его понимал, он бы его смоделировал. И весь комплекс сложных человеческих социально-эмоциональных отношений пока недоступен искусственному интеллекту, он не в силах моделировать поведение в этой области на уровне человека в произвольной ситуации.

— Чего еще он не может?

— Творить как гений; неограниченно расти когнитивно, обучаясь, как ребенок до уровня взрослого. Он не обладает здравым смыслом на уровне человека. Смешно, но он пока бессилен перед сантехникой. Искусственный интеллект не сможет поменять вам трубы в ванной: слишком много нетипичных решений. А вот операциям на сердце или макияжу робота можно научить. Не говоря уже о решении интеллектуальных задач.

Удивительно, что многое из того, что казалось невозможным на заре искусственного интеллекта, было реализовано довольно быстро. Формализовать эмоции, возможно, проще, чем построить математическую модель естественного языка. А это уже в некотором смысле сделано, если мы говорим о больших языковых моделях.

— Допустим, мы установим, что чувство юмора состоит на 3,5 % из страха, на 2,5 % из радости и т. д. Что нам это даст, какова конечная цель таких изысканий?

— Мы хотим, чтобы были созданы такие агенты, которым можно дать задачу, как преподаватель дает студенту, — ​и чтобы он ее сам решил и сообщил нам, когда все будет готово. Вы напишете ему не программу на машинном языке, а буквальный запрос: «Ты должен сделать ­то-то и ­то-то». И это будет сделано — ​нейросетью, натренированной на огромном материале.

Польза от нейросети — ​тупой и не очень

— Значит, через социально-эмоциональные инструменты искусственного интеллекта мы хотим добиться понимания?

— Чтобы добиться понимания, нужно воспроизвести функциональную организацию человеческого мозга, нашего мышления — ​сделать то, что делают исследователи, создающие когнитивные архитектуры. То есть когнитивных агентов, которые обладают внутренней семантикой, способностью рассуждать, моделировать окружающий мир, имеют память в символьном виде на основе того или иного языка, имеют определенные логические правила и генерируют новые, строят аналогии, ставят цели и достигают их. Делают многое другое из того, чем обычно занят человек. Но в статистических моделях ничего этого нет. Архитектура большой языковой модели не воспроизводит ни архитектуру мозга, ни принципы его работы. Это просто матрица, куда вы заложили кучу информации, работающая в режиме ответа на запрос.

— Насколько полезным окажется ответ?

— Ответы выглядят очень разумными и часто таковыми являются. А ведь понимания-то никакого нет! И все эти модели не способны творить — ​в смысле создавать что-то принципиально новое и оригинальное. И вообще они зачастую демонстрируют грубое непонимание самой сути предмета.

Вы скажете: нейросеть ошибается, и человек ошибается — ​в чем тогда разница? Так, как способен ошибаться искусственный интеллект, человек не смог бы ошибиться никогда! Популярный сегодня искусственный интеллект, представленный большими языковыми моделями, на самом деле абсолютно тупой и никаким интеллектом не обладает, он просто генерирует данные согласно заученной статистике. В то же время это мощный и нужный инструмент, и у него есть свое место. Например, большую языковую модель можно использовать как периферийное устройство. Допустим, у вас есть когнитивная модель, имеющая внутри себя семантику и способность рассуждать и планировать. Ей необходим интерфейс с внешним миром, с человеком — ​естественного языка она не знает, и ей нужно, чтобы кто-то объяснил, как одно связать с другим в конкретной ситуации, к которой она заранее не подготовлена.

— Допустим, человек говорит ласково (его эмоция распознана), но при этом лжет. Агент способен увидеть обман?

— Да. Более того, есть агенты, которые сами способны обманывать человека, используя для достижения своих целей выражение тех или иных эмоций в беседе. В этом и дело: агент должен понять, какая эмоция адекватна ситуации и служит его целям. Например, можно отзеркалить эмоцию собеседника, но человек быстро распознает это как чисто механическую реакцию. Если агент будет все время копировать ваши эмоции, вам поначалу, возможно, это понравится, но потом вы все равно догадаетесь, что что-то здесь не так и, скорее всего, он ничего не понимает. А искусственный интеллект все-таки должен понимать, как себя вести в той или иной социальной ситуации, какие эмоции и когда выражать. Пока это умеет только человек, и в ограниченных парадигмах — ​когнитивных моделях.

— Как же интегрировать эти два подхода для создания социально-эмоционального интеллекта человеческого уровня?

— Мы до сих пор говорили с вами лишь об одном варианте интеграции глубоких нейросетей с когнитивными моделями — ​об использовании больших языковых моделей в качестве интерфейса или периферийного устройства для когнитивной модели, позволяющего распознать или выразить что-то в естественной речи. Мой интерес к этой теме не угасает, и успехи в ней множатся по всему миру. Но мы ведь можем использовать нейросеть и для реализации самой когнитивной модели: тот факт, что она статистическая, не запрещает ей стать когнитивной. Тогда получается, что кроме задачи быть интерфейсом есть еще и задача воплощения когнитивной модели в нейросети. Почему в нейросети? Зачем это нужно, если алгоритм, воплощающий когнитивную модель, уже запрограммирован и работает? Потому что нейросеть способна обучаться, и она может быть устойчивее к непредвиденным ситуациям, чем алгоритм, разработанный для ограниченной парадигмы. Этой задачей мы и занимаемся в рамках проекта на грант Российского научного фонда.

Поделиться
Есть интересная история?
Напишите нам
Читайте также:
Люди
Движение материалов
Федеральный номер «Страна Росатом» №16 (624)
Скачать
Федеральный номер «Страна Росатом» №16 (624)

Интервью с гендиректором ВНИИНМ Леонидом Карпюком — стр. 4

Как лечит лютеций‑177 — стр. 5

Хобби обязывает: Василий Кукава знает все рыбные места — стр. 7

Скачать
Люди
Алмазный путь семьи Федоровых: атомщики отметили 60 лет супружеской жизни
Новости
«Росатом» отгрузил парогенераторы для третьего блока АЭС «Аккую»
Новости
«Росатом» и «Узатом» готовят контракт на строительство АЭС в Узбекистане
Новости
«Росатом» представил проект плавучей АЭС для зарубежного рынка
Показать ещё