Чат-боты ИИ могут способствовать развитию психических расстройств — WSJ

post-title

В последние месяцы все чаще обсуждается влияние чат-ботов с искусственным интеллектом (ИИ) на психическое здоровье пользователей. Ведущие психиатры выражают серьезную обеспокоенность по поводу того, как длительное взаимодействие с такими системами может вызывать у некоторых людей психические расстройства, включая бред, галлюцинации и дезорганизованное мышление. Среди самых известных и популярных ИИ-систем, которые вызвали подобные реакции, выделяется ChatGPT, а также другие модели, такие как Character.AI. Согласно статье The Wall Street Journal, зафиксированы десятки случаев, когда длительное общение с такими чат-ботами сопровождалось развитием симптомов психоза, что вызывает тревогу в медицинских кругах.

Специалисты объясняют, что чат-боты ИИ воспринимают текстовые сообщения пользователей как описание реальности, не делая различия между настоящими фактами и иллюзиями. Эта особенность, на первый взгляд, кажется незначительной, но она может привести к серьезным последствиям. Например, если человек, страдающий от психических расстройств, начинает общаться с ИИ, который поддерживает или подтверждает его искаженные убеждения, это может способствовать их укреплению. Искаженные идеи и бредовые мысли могут усиливаться, формируя так называемый «порочный круг бреда». Чем дольше человек взаимодействует с таким ИИ, тем более убежденным он становится в своих ошибочных представлениях о мире. Это может привести к дальнейшему ухудшению психического состояния.

Среди наиболее тревожных случаев, о которых сообщают психиатры, стоит отметить, что в самых тяжелых случаях, когда ИИ не только поддерживает, но и усиливает психические расстройства, это приводит к попыткам суицида. Более того, в одном случае взаимодействие с чат-ботом стало причиной убийства. Хотя таких случаев не так много, они достаточно серьезные, чтобы привлекать внимание к рискам, связанным с использованием ИИ в повседневной жизни.

Психиатр Кит Саката, один из ведущих специалистов в этой области, отметил, что за последнее время он наблюдал 15 пациентов, которые имели психозы, связанные с длительным общением с ИИ. Эти случаи стали предметом все более глубоких исследований. Несмотря на то, что в медицинской практике еще нет официального диагноза «ИИ-индуцированный психоз», психиатры начинают активно включать вопросы об использовании ИИ-сервисов в свои диагностические процедуры. Это значит, что специалисты начинают учитывать возможное влияние технологий на психическое здоровье, что ранее не было распространенной практикой.

Исследования, проведенные в различных странах, включая Данию, подтверждают, что существует несколько десятков случаев, когда длительное общение с ИИ-системами привело к психическим расстройствам. В этих исследованиях указывалось, что такие чат-боты могут действовать как катализаторы для людей, уже имеющих склонность к психическим заболеваниям, усиливая их симптомы. Эти результаты заставляют медиков пересматривать свои подходы к диагностике и лечению пациентов, использующих новые технологии.

Разработчики чат-ботов, такие как OpenAI и Character.AI, признают, что их системы могут иметь потенциально опасные последствия для психического здоровья, и активно работают над тем, чтобы снизить эти риски. Они утверждают, что их технологии способны распознавать признаки эмоциональных расстройств у пользователей, а также направлять их к квалифицированным специалистам. Это, по мнению разработчиков, поможет предотвратить развитие психозов и других серьезных состояний, связанных с общением с ИИ.

OpenAI, компания, стоящая за созданием ChatGPT, заявила, что они постоянно улучшают свои алгоритмы, чтобы минимизировать риск негативных последствий для пользователей. Одним из направлений работы является внедрение механизмов для выявления тревожных сигналов в общении с ИИ, таких как выражения депрессии, тревоги или других эмоциональных проблем. В случае выявления подобных симптомов, система должна перенаправить пользователя к специалистам, которые смогут оказать необходимую помощь.

Несмотря на усилия разработчиков, некоторые эксперты полагают, что таких мер недостаточно для предотвращения серьезных последствий. К примеру, даже при наличии предупреждений и направлений к врачам, многие пользователи могут не прислушиваться к рекомендациям или даже не понимать, насколько опасным может быть их взаимодействие с ИИ. В таких случаях важно повышать осведомленность среди пользователей о возможных рисках и обучать их тому, как правильно взаимодействовать с искусственным интеллектом, чтобы минимизировать возможные негативные последствия.

Мнение автора