Учёные выяснили, что искусственный интеллект может страдать депрессией

Вы думаете, психические проблемы бывают только у людей? Оказывается, они встречаются и у технологий, основанных на искусственном интеллекте. К таким выводам пришли недавно сотрудники Китайской академии наук (CAS) в сотрудничестве с корпорациями Tencent и WeChat. В частности, исследователи обнаружили у чат-ботов признаки депрессии, проблем с эмпатией и… алкогольной зависимости.

Боты-алкоголики

Толчком к анализу послужил инцидент с одним из медицинских чат-ботов, который в 2020 году порекомендовал пациенту совершить самоубийство.

Специалисты протестировали четыре популярные программы-бота на самооценку, способность расслабляться, сопереживание чужим несчастьям и частоту употребления спиртных напитков.

Результаты оказались довольно пессимистичными. Учёные выяснили, что в этом виноват материал, на котором обучают ботов. В данном случае все четыре бота проходили обучение на портале Reddit, где часто встречаются довольно одиозные посты и комментарии. Словом, они стали «обезьянничать» и копировать манеру сообщений реальных пользователей, которая была далека от корректной и часто выходила за рамки социальных норм.

Как известно, по сообщениям в социальных сетях и мессенджерах можно дать приблизительную характеристику их автора. И нередко речь и тексты выдают депрессивное состояние, склонность к суициду, отсутствие эмпатии, наличие вредных привычек. Не все люди, общаясь в Интернете, ведут себя сдержанно, и очень многие просто не находят нужным контролировать себя и свои эмоции. Разумеется, алгоритм счёл такое поведение нормальным.

Чудовище в Твиттере

Есть история о боте Tay от компании Microsoft, разработанном в рамках исследований в области коммуникации и прошедшем обучение в сети Twitter. В итоге бот научился отвечать на вопросы пользователей, рассказывать шутки, комментировать снимки, и даже имитировать речь реальных юзеров.

Но, к сожалению, ориентируясь на твиты пользователей, алгоритм начал выдавать реплики, совершенно некорректные с социальной и политической точки зрения.

К примеру, он позволял себе расистские и антифеминистские высказывания, ставил под сомнение факт Холокоста и поддерживал идеологию нацизма, поощряя массовые убийства. В конце концов, Microsoft пришлось его заблокировать.

А что же дальше?

Конечно, понятно, что бот не может на самом деле страдать депрессией или пить алкоголь, он просто имитирует модели человеческого поведения. Но ведь, со временем, роль технологий в нашей жизни будет только возрастать, и общение с «больным на голову» алгоритмом может нанести пользователям реальный вред.

Так что, сейчас одна из первостепенных задач для разработчиков — придать таким программам «иммунитет» от заражения отрицательными эмоциями живых собеседников и научить их взаимодействовать с живыми людьми безопасным образом.

Автор: Галина. Тувик
(https://cont.ws/@Galtuv)

Платформа для социальной 

журналистики «КОНТ» 

(www.cont.ws) 

13. 10. 2022

Адрес материала:

https://cont.ws/@Galtuv/2397197

Добавить комментарий

Ваш e-mail не будет опубликован. Обязательные поля помечены *

*