Искусственный интеллект научили общаться с мертвыми - MediaVizor

Искусственный интеллект научили общаться с мертвыми

Искусственный интеллект (ИИ) позволяет людям общаться с умершими. Однако такие чат-боты могут негативно повлиять на психическое состояние людей, потерявших близких, и вызвать отчаяние.

Западные разработчики создали чат-ботов, которые имитируют поведение умерших родственников. Это явление называется deadbots или griefbots.

В новом исследовании, проведённом Кембриджским университетом, учёные предупреждают о рисках, связанных с такими технологиями. Они предлагают рекомендации, которые помогут защитить тех, кто подвергается симуляции, и тех, кто пользуется этими сервисами.

Исследователи ранее указывали на проблемные аспекты создания симуляций умерших людей. В то же время, такие услуги могут быть полезны для некоторых людей.

Например, молодой человек, потерявший свою невесту в возрасте 23 лет, создал чат-бота, который имитировал речь и поведение Джессики. Он чувствовал, что это помогло ему жить дальше.

Сервис, используемый для имитации Джессики, называется Project December. Ранее он был основан на ChatGPT.

Другие компании также пытаются создать подобные сервисы. Например, HereAfter AI создала приложение, в котором пользователь может отвечать на вопросы для интервью. Скорбящие могут задавать вопросы приложению и получать ответы голосом умершего.

В исследовании учёные рассматривают три гипотетических сценария, которые выявляют этические проблемы.

«Стремительный прогресс в области искусственного интеллекта означает, что практически любой человек, имеющий доступ к интернету и некоторые базовые знания, может оживить любимого человека», — говорит исследователь Катажин Новачик-Баси. По её словам, это этическое минное поле.

В первом сценарии исследования 35-летняя женщина по имени Бьянка создаёт чат-бота, который может говорить голосом её бабушки. Она выбирает бесплатную версию, которая содержит продакт-плейсмент. Это работает хорошо, пока бабушка не начинает давать советы о том, что можно купить внуку. Бьянка считает, что проявила неуважение к памяти своей бабушки.

Во втором сценарии умирает мать восьмилетнего мальчика. Перед смертью её мать и отец совместно создали чат-бота с видео и голосом, похожим на её, с помощью которого ребёнок может общаться. Чат-бот начинает сбивать ребёнка с толку, говоря так, как будто его мать всё ещё жива и они могут встретиться снова.

В третьем сценарии пожилой мужчина создаёт чат-бота через компанию Stay, который имитирует его самого. Он хочет, чтобы его дети и внуки могли общаться с чат-ботом после его смерти. После похорон подросшие дети начинают получать запросы от компании на авторизацию и общение с чат-ботом своего отца. Один из детей не хочет открывать чат-бот. Затем он получает спам от компании, иногда непосредственно от чат-бота своего отца.

Другая женщина общается с приложением, но устаёт от ежедневных взаимодействий и чувствует себя виноватой, когда перестаёт им пользоваться. Поскольку отец заплатил за подписку сроком на 20 лет, компания не отменит штраф, когда она попросит.

«Человек может оставить имитацию ИИ в качестве прощального подарка своим близким, которые самостоятельно сложно пережить своё горе», — отмечает Новачик-Баси.

По словам исследователя Томаша Холланека, такие услуги могут привести к сильному отчаянию, если людей, сами того не желая, преследует призрак ИИ.

«Потенциальное психологическое воздействие, особенно в и без того трудное время, может быть разрушительным», — считает учёный.

Исследователи рекомендуют получать согласие как от человека, чьи данные используются для создания чат-бота, так и от тех, кто собирается их использовать. Однако исследователи отмечают, что компания не всегда сможет подтвердить, давал ли умерший согласие.

«Мы советуем ввести протоколы, которые предотвращают неуважительное использование ботов, например, для рекламы или активного присутствия в социальных сетях», — объясняют исследователи.

Кроме того, они отмечают, что для использования технологии должно быть установлено возрастное ограничение. Пользователю также следует напомнить, что говорит искусственный интеллект и что у него нет сознания.

Исследователи считают, что компании также должны сообщать о любых рисках, связанных с психическим здоровьем, при использовании такого приложения.