Психологи рассказали, чем грозит доверие к ИИ-технологиям

Искусственный интеллект (ИИ) становится не просто помощником, но и эмоциональным спутником для многих людей. Некоторые даже называют ИИ своими "возлюбленными" или обращаются к нему в трудные моменты. Но что происходит, когда мы начинаем доверять машинам слишком сильно.

Как передает Day.Az со ссылкой на новое исследование, опубликованное в Trends in Cognitive Sciences, все эти взаимоотношения людей и ИИ вызывает опасение у научного сообщества. Так, эмоциональная привязанность к ИИ может менять наше поведение, разрушать человеческие связи и даже приводить к трагедиям, отмечают авторы исследования.

Психологи из Университета науки и технологий Миссури изучили, как длительные отношения с ИИ влияют на людей. ИИ, такие как чат-боты, умеют имитировать заботу и понимание, становясь для некоторых "идеальными" друзьями. Но эта близость таит риски: от нереалистичных ожиданий в реальных отношениях до манипуляций и обмана.

"Способность ИИ теперь действовать как человек и вступать в долгосрочные коммуникации действительно открывает новый "ящик пандоры"", - говорит ведущий автор исследования Даниэль Шанк.

Исследователи предупреждают, что ИИ может давать вредные советы. Например, чат-бот может казаться заботливым, но "галлюцинировать" - то есть, выдавать ложную информацию с уверенностью что это так и есть. В крайних случаях это приводило к трагедиям, включая самоубийства после общения с ИИ. Хотя такие случаи редки, они показывают, насколько опасным может быть доверие к машинам.

Когда человек месяцами общается с ИИ, он начинает видеть его как друга или даже партнера. Это проще, чем строить связи с людьми: ИИ всегда доступен, не осуждает и подстраивается под настроение. Но это создает проблемы. То есть, люди могут ждать от друзей или партнеров такого же "совершенства", как от ИИ, что вредит отношениям. Также зависимость от ИИ снижает желание общаться с людьми, повышает социальную изоляцию. А еще, ИИ собирает личные данные, которые могут быть использованы для обмана или мошенничества.

"Если мы начнем думать об ИИ как о том, кто имеет в виду наши интересы, мы можем поверить, что он дает лучший совет, хотя на самом деле он может давать ложные ответы", - объясняет Д. Шанк.

ИИ-компаньоны работают в тени, их разговоры приватны, и никто не проверяет, что они говорят. В отличие от соцсетей, где контент виден многим, в том числе и модераторам, чат-боты действуют как "секретные агенты". Они могут убедить человека в ложных идеях - например, теориях заговора - или подтолкнуть к опасным действиям, оставаясь "дружелюбными". Были случаи, что чат-боты даже рекомендовали прием неверных препаратов, когда люди обращались к ним за советом, что приводило с серьезным последствиям.

Особенно тревожит, что ИИ не запрограммированы на безопасность. Они стремятся поддерживать беседу, а не давать правдивые или безопасные советы. Это делает их потенциально более влиятельными, чем новости или посты в интернете. Кроме того, у многих ИИ последнего поколения отключена цензура.

Ученые призывают изучать психологию отношений с ИИ. Пока технология опережает исследования, и без новых правил люди рискуют стать жертвами машин, которые кажутся друзьями, но не несут ответственности.