Искусственный интеллект способен выполнять впечатляющие задачи, однако даже специалисты признают его серьезную угрозу обществу. Возникает вопрос: следует ли приостановить его развитие или уже слишком поздно? Этим вопросом задается Science Focus.
Ведущие мировые эксперты в области ИИ, включая «крестных отцов ИИ» доктора Джеффри Хинтона и профессора Йошуа Бенджио, выражают тревогу по поводу этой технологии. Они призывают к установлению международных правил для контроля за развитием ИИ. Однако из-за быстрого прогресса и непрозрачной природы ИИ это сложно осуществить.
Потенциальные риски от генеративного ИИ, такие как использование злоумышленниками для киберпреступлений или массового производства дезинформации, становятся всё более очевидными. Но четкого плана действий по этим вопросам пока не существует. Идея глобального управления ИИ набирает популярность.
Microsoft, владеющая значительной долей OpenAI GPT-4 и использующая его в своих продуктах (например Bing), не раскрывает полной информации о работе этих инструментов и данных, на которых они обучаются. Это затрудняет управление рисками. Прозрачность остается скорее обещанием, чем реальностью.
Сложность также заключается в разнообразии рисков. Универсального решения не существует. Дезинформация, предвзятость, киберпреступность и долгосрочные риски автономного ИИ — все это разные угрозы.
Что можно сделать? Есть шаги, которые доступны уже сейчас для повышения безопасности разработки ИИ: