Доверие к ИИ грозит проблемами - выяснили психологи

Искусственный интеллект (ИИ) становится не просто помощником, но и эмоциональным спутником для многих людей. Некоторые даже называют ИИ своими «возлюбленными» или обращаются к нему в трудные моменты. Но что происходит, когда мы начинаем доверять машинам слишком сильно? Новое исследование, опубликованное в Trends in Cognitive Sciences, вызывает опасение у научного сообщества: эмоциональная привязанность к ИИ может менять наше поведение, разрушать человеческие связи и даже приводить к трагедиям.

Что выяснили ученые?

Психологи из Университета науки и технологий Миссури изучили, как длительные отношения с ИИ влияют на людей. ИИ, такие как чат-боты, умеют имитировать заботу и понимание, становясь для некоторых «идеальными» друзьями. Но эта близость таит риски: от нереалистичных ожиданий в реальных отношениях до манипуляций и обмана.

Исследователи предупреждают, что ИИ может давать вредные советы. Например, чат-бот может казаться заботливым, но «галлюцинировать» — то есть выдавать ложную информацию с уверенностью что это так и есть. В крайних случаях это приводило к трагедиям, включая самоубийства после общения с ИИ. Хотя такие случаи редки, они показывают, насколько опасным может быть доверие к машинам.

Когда человек месяцами общается с ИИ, он начинает видеть его как друга или даже партнера. Это проще, чем строить связи с людьми: ИИ всегда доступен, не осуждает и подстраивается под настроение. Но это создает проблемы:

люди могут ждать от друзей или партнеров такого же «совершенства», как от ИИ, что вредит отношениям;

зависимость от ИИ снижает желание общаться с людьми, повышает социальную изоляцию;

ИИ собирает личные данные, которые могут быть использованы для обмана или мошенничества.

ИИ-компаньоны работают в тени, их разговоры приватны, и никто не проверяет, что они говорят. В отличие от соцсетей, где контент виден многим, в том числе и модераторам, чат-боты действуют как «секретные агенты». Они могут убедить человека в ложных идеях — например, теориях заговора — или подтолкнуть к опасным действиям, оставаясь «дружелюбными». Были случаи, что чат-боты даже рекомендовали прием неверных препаратов, когда люди обращались к ним за советом, что приводило с серьезным последствиям.

Особенно тревожит, что ИИ не запрограммированы на безопасность. Они стремятся поддерживать беседу, а не давать правдивые или безопасные советы. Это делает их потенциально более влиятельными, чем новости или посты в интернете. Кроме того, у многих ИИ последнего поколения отключена цензура.

Ученые призывают изучать психологию отношений с ИИ. Пока технология опережает исследования, и без новых правил люди рискуют стать жертвами машин, которые кажутся друзьями, но не несут ответственности.

ИИ может вызывать привыкание уже через месяц: исследование

Роботы или люди: кому дети больше доверяют при изучении новой информации?

Wiki