Posted 4 июня, 04:34

Published 4 июня, 04:34

Modified 4 июня, 04:34

Updated 4 июня, 04:34

Угроза ИИ: как сдержать удар, извлекая из нейросетей максимальную пользу

Угроза ИИ: как сдержать удар, извлекая из нейросетей максимальную пользу

4 июня 2024, 04:34
Фото: Изображение Midjourney
Угроза ИИ реальна, но есть способ её избежать, объясняет технический эксперт.

Искусственный интеллект способен выполнять впечатляющие задачи, однако даже специалисты признают его серьезную угрозу обществу. Возникает вопрос: следует ли приостановить его развитие или уже слишком поздно? Этим вопросом задается Science Focus.

Ведущие мировые эксперты в области ИИ, включая «крестных отцов ИИ» доктора Джеффри Хинтона и профессора Йошуа Бенджио, выражают тревогу по поводу этой технологии. Они призывают к установлению международных правил для контроля за развитием ИИ. Однако из-за быстрого прогресса и непрозрачной природы ИИ это сложно осуществить.

Потенциальные риски от генеративного ИИ, такие как использование злоумышленниками для киберпреступлений или массового производства дезинформации, становятся всё более очевидными. Но четкого плана действий по этим вопросам пока не существует. Идея глобального управления ИИ набирает популярность.

Microsoft, владеющая значительной долей OpenAI GPT-4 и использующая его в своих продуктах (например Bing), не раскрывает полной информации о работе этих инструментов и данных, на которых они обучаются. Это затрудняет управление рисками. Прозрачность остается скорее обещанием, чем реальностью.

Сложность также заключается в разнообразии рисков. Универсального решения не существует. Дезинформация, предвзятость, киберпреступность и долгосрочные риски автономного ИИ — все это разные угрозы.

Что можно сделать? Есть шаги, которые доступны уже сейчас для повышения безопасности разработки ИИ:

  1. Правительствам следует регулировать внедрение моделей ИИ, требуя от компаний доказательств их безопасности и пользы.
  2. Компании должны быть прозрачными в отношении данных и сотрудничать с независимыми исследователями.
  3. Компании должны предоставлять ресурсы для внешнего аудита.
  4. Необходимо стимулировать компании относиться к ИИ как к общественному благу, используя как кнут, так и пряник.
  5. Надо создать глобальное агентство по искусственному интеллекту, которое будет работать с заинтересованными сторонами для разработки правил, служащих обществу, а не только компаниям.
  6. Следует работать над созданием организации наподобие ЦЕРН для ИИ, сосредоточенной на безопасности и разработке технологий, соблюдающих человеческие ценности, а также на создании инструментов для аудита ИИ и снижения рисков.