Однако вместо технологического восторга у местных жителей такая инновация вызвала больше опасений по поводу своей конфиденциальности и возможной слежки.
Компания Network Rail в сотрудничестве с Purple Transform, специализирующейся на анализе данных, протестировала эти системы на 18 объектах, чтобы повысить их безопасность. Сейчас система ИИ, работающая на платформе SiYtE, способна предупреждать персонал о подозрительном поведении без использования технологии распознавания лиц. А вот внедрение новой технологии как раз и должно улучшить реакцию агрегатов на такие инциденты, как кражи и опасные условия, например, скользкие полы. Однако защитники конфиденциальности критикуют недостаток прозрачности и предлагают вынести на суд общественности обсуждения по поводу использования ИИ в таких местах.
Как отмечают специалисты, одной из ключевых проблем таких новшеств является потенциальная предвзятость алгоритмов распознавания эмоций. Исследования показали, что системы часто неправильно интерпретируют эмоции людей с разным цветом кожи, что может привести к дискриминации. Например, алгоритмы могут чаще распознавать лица чернокожих людей как выражающие гнев по сравнению с лицами белых людей.
Кроме того, критики указывают на уязвимость к нарушениям гражданских свобод и прав на частную жизнь. Эмоциональное распознавание представляет собой значительный риск для конфиденциальности, поскольку вмешивается в личные и эмоциональные аспекты жизни людей, что может использоваться для манипуляции и контроля.
Несмотря на заявленные преимущества технологии, такие как улучшение безопасности и оперативное реагирование на инциденты, важно обеспечить строгий надзор и подотчетность при внедрении подобных технологий, чтобы защитить права граждан и минимизировать риски злоупотреблений.