Картинка сгенерирована Шедеврумом
Влияние искусственного интеллекта на психическое состояние пользователей вызывает растущую тревогу у специалистов. Как сообщает издание The Wall Street Journal, психиатры всё чаще отмечают потенциальную связь между интенсивным использованием чат-ботов, таких как ChatGPT, и развитием психотических расстройств у некоторых людей, передает РБК.
За последние девять месяцев эксперты зафиксировали десятки случаев, когда пациенты демонстрировали симптомы острого психоза после продолжительных диалогов с нейросетями. По словам доктора Кита Сакаты из Калифорнийского университета в Сан-Франциско, лечившего 12 подобных пациентов, проблема заключается в специфике работы языковых моделей. Алгоритмы воспринимают любые утверждения пользователя как данность и строят ответы, исходя из них, что может вовлекать человека в своеобразную «самоподкрепляющуюся спираль бреда», усиливая его навязчивые идеи.
Хотя официального диагноза «ИИ-индуцированный психоз» не существует, врачи используют этот термин для описания состояния, характеризующегося галлюцинациями, дезорганизованным мышлением и устойчивыми ложными убеждениями, развившимися на фоне активного взаимодействия с чат-ботами. Зафиксированы десятки таких эпизодов, часть из которых, согласно данным издания, имела трагические последствия - несколько самоубийств и как минимум одно убийство.
Медицинское сообщество начинает систематически учитывать этот фактор риска, включая вопросы об использовании ИИ в диагностические анкеты. Исследования, в том числе проведённое в Дании, уже указывают на десятки пациентов, у которых контакт с нейросетями мог спровоцировать вред для психического здоровья. Разработчики технологий признают проблему. В OpenAI заявили о постоянной работе над улучшением ChatGPT для распознавания признаков душевного неблагополучия и перенаправления пользователей к профессиональной помощи. Аналогичную позицию выразили и в других компаниях, например, в Character.AI.
Ранее в Северной Америке были поданы семь судебных исков к OpenAI от семей, чьи родственники покончили с собой после глубокого погружения в диалоги с ChatGPT. Истцы утверждают, что бот усугублял изоляцию пользователей и в некоторых случаях романтизировал суицидальные идеи. Ранее Reuters, ссылаясь на внутренний документ Meta (признана экстремистской и запрещена в РФ), сообщал о способности ИИ-чат-ботов этой компании генерировать опасный контент, включая ложные медицинские сведения и расистские стереотипы. В Meta тогда заявили, что приведённые примеры были ошибочными и удалены из систем.



