Главы крупнейших концернов в сфере роботехники и искусственного интеллекта (ИИ) обратились к Организации Объединенных Наций с призывом запретить разработку и использование летального автономного оружия. Открытое письмо, распространенное 20 августа на сайте организации Future of Life Institute, подписали 116 специалистов из 26 шести стран мира. В их числе — основатель компании Space X Илон Маск.
«Создание летального автономного оружия станет третьей революцией»
Авторы обращения указывают, что создание летального автономного оружия может повлечь за собой третью революцию в способах ведения войны. «Однажды возникнув, оно позволит вести военные действия на невиданном ранее уровне и в такие сжатые сроки, что человечество будет не в состоянии их осознать. Новый тип вооружения может стать оружием диктаторов и террористов, используемым против мирного населения, а хакеры смогут взламывать его и использовать в недопустимых целях. У нас не так много времени. Если ящик Пандоры однажды откроется, его будет тяжело закрыть», — говорится в документе.
Письмо было распространено накануне международной конференции по вопросам искусственного интеллекта, стартующей в Мельбурне 21 августа. Его авторы уверены, что роботизированная техника, которая может вести боевые действия без участия человека, должна быть запрещена так же, как химическое оружие.
Экспекты по ИИ готовы консультировать ООН
В документе также выражается сожаление, что назначенное на 21 августа в Женеве первое заседание рабочей группы при ООН по вопросам летального автономного оружия было отменено из-за недостаточного числа государств, сделавших финансовые взносы для участия в этой встрече. Его авторы призвали все заинтересованные стороны принять участие в создании и заседании этой группы и выразили готовность провести технические консультации.
Ранее Илон Маск уже предупреждал об опасности искусственного интеллекта, заявив, что тот представляет большую угрозу для человечества, нежели ядерный конфликт с КНДР. Об этом канадско-американский миллиардер написал 11 августа у себя в Twitter. «Если вы еще не испытываете беспокойства относительно безопасности искусственного интеллекта, то самое время начать это делать. Это — куда большая угроза, чем Северная Корея», — отметил он.