Если с начала 2000-х годов люди уже начали относиться к компьютерам, как к живым существам, то сейчас некоторые пользователи даже формируют эмоциональные привязанности к чат-ботам. Однако, по мнению исследователей, такая антропоморфизация может привести к тому, что пользователи начнут слишком сильно доверять ИИ, не ставя под сомнения их утверждения. Исследователи говорят, что сейчас катастрофически растет процент людей предрасположенных к вере в, так называемые, «галлюцинациям ИИ» — ложные утверждения, созданные машиной.
Кроме того, исследование показывает, что постоянное взаимодействие с чат-ботами может повлиять на социальные нормы и привести к развитию эмоциональной зависимости от ИИ. Особенно это касается людей, находящихся в изоляции. Привязанность к ИИ может изменить способ общения людей друг с другом, делая их более нетерпеливыми, грубыми или склонными к прерыванию собеседника.
Хотя некоторые пользователи утверждают, что ИИ помогает им преодолеть социальные страхи и улучшить уверенность в общении с другими людьми, исследователи предупреждают, что это также может уменьшить потребность в реальных человеческих контактах. А в некоторых случаях обновление или изменение личности ИИ может привести к негативным эмоциональным последствиям и для самого пользователя.
При этом, несмотря на опасения психологов и исследователей, OpenAI продолжает выпускать все новые продукты, которые не прошли все ступени проверок безопасности их для психики людей.
Помимо этических вопросов и предвзятости ИИ также есть несколько и других опасений.
Существует опасение, что ИИ может быть использован для создания автономных боевых систем, которые смогут самостоятельно принимать решения об атаке. Это может привести к неконтролируемому использованию силы и созданию оружия массового поражения нового типа.
Системы ИИ могут собирать, анализировать и использовать огромное количество личных данных, что вызывает опасения по поводу защиты конфиденциальности и возможности утечек или злоупотребления этой информацией.
Современные модели ИИ, особенно глубокие нейронные сети, часто работают как «черные ящики», где процесс принятия решений остается непрозрачным даже для разработчиков. Это вызывает опасения относительно возможности контроля и исправления ошибок.
С увеличением зависимости от ИИ люди могут утратить навыки и способности, которые ранее были необходимы в повседневной жизни и на работе. Это может привести к снижению критического мышления и способности к самостоятельному принятию решений.