Ученые выяснили, что общение с ИИ пагубно влияет на взаимоотношения людей

ИИ друг или опасный собеседник? Как чат-боты могут превратить нас в идиотов

16 августа, 22:00
Исследователи безопасности из Open AI выяснили, что чрезмерная близость людей с продвинутыми чат-ботами может негативно повлиять на человеческие взаимоотношения.

Если с начала 2000-х годов люди уже начали относиться к компьютерам, как к живым существам, то сейчас некоторые пользователи даже формируют эмоциональные привязанности к чат-ботам. Однако, по мнению исследователей, такая антропоморфизация может привести к тому, что пользователи начнут слишком сильно доверять ИИ, не ставя под сомнения их утверждения. Исследователи говорят, что сейчас катастрофически растет процент людей предрасположенных к вере в, так называемые, «галлюцинациям ИИ» — ложные утверждения, созданные машиной.

Кроме того, исследование показывает, что постоянное взаимодействие с чат-ботами может повлиять на социальные нормы и привести к развитию эмоциональной зависимости от ИИ. Особенно это касается людей, находящихся в изоляции. Привязанность к ИИ может изменить способ общения людей друг с другом, делая их более нетерпеливыми, грубыми или склонными к прерыванию собеседника.

Хотя некоторые пользователи утверждают, что ИИ помогает им преодолеть социальные страхи и улучшить уверенность в общении с другими людьми, исследователи предупреждают, что это также может уменьшить потребность в реальных человеческих контактах. А в некоторых случаях обновление или изменение личности ИИ может привести к негативным эмоциональным последствиям и для самого пользователя.

При этом, несмотря на опасения психологов и исследователей, OpenAI продолжает выпускать все новые продукты, которые не прошли все ступени проверок безопасности их для психики людей.

Какие опасности несет искусственный интеллект
Изображение Midjourney

Какие опасности несет ИИ?

Помимо этических вопросов и предвзятости ИИ также есть несколько и других опасений.

Автономное оружие

Существует опасение, что ИИ может быть использован для создания автономных боевых систем, которые смогут самостоятельно принимать решения об атаке. Это может привести к неконтролируемому использованию силы и созданию оружия массового поражения нового типа.

Проблемы конфиденциальности

Системы ИИ могут собирать, анализировать и использовать огромное количество личных данных, что вызывает опасения по поводу защиты конфиденциальности и возможности утечек или злоупотребления этой информацией.

Сложность и непрозрачность решений ИИ

Современные модели ИИ, особенно глубокие нейронные сети, часто работают как «черные ящики», где процесс принятия решений остается непрозрачным даже для разработчиков. Это вызывает опасения относительно возможности контроля и исправления ошибок.

Эрозия человеческих навыков

С увеличением зависимости от ИИ люди могут утратить навыки и способности, которые ранее были необходимы в повседневной жизни и на работе. Это может привести к снижению критического мышления и способности к самостоятельному принятию решений.

#Светлана Павлова #Технологии #Все материалы авторов #Научпоп
Подпишитесь