Серьезная опасность использования военными систем искусственного интеллекта заключается в его участии при принятии решения о нанесении ядерного удара.
Как передает ONA со ссылкой на РИА Новости, об этом пишет издание Breaking Defense со ссылкой на бывшего заместители министра обороны США Роберта Уорка.
По его словам, системы искусственного интеллекта не должны участвовать в контроле ядерного вооружения, поскольку они запускаются по определенным параметрам и показателям. В некоторых ситуациях искусственный интеллект может расценить неопасные факторы как представляющие угрозу, и это является "тревожной перспективой".
В частности, приводится в пример российская система "Периметр", которая может принять сейсмическую активность за ядерные взрывы, после чего направит запрос в штаб войск, и если вдруг не получит ответа, может отдать команду на запуск межконтинентальных баллистических ракет.
Кроме того, Уорк добавил, что военное применение искусственного интеллекта может привести к плачевным последствиям и без его прямого участия в управлении ядерным оружием. В частности, такой сферой может быть его использование при анализе разведывательных данных, а также в системах раннего предупреждения.
Тем не менее, он отмечает, что искусственный интеллект несомненно может принести пользу для военных, однако его применение должно быть ограничено, и не должно распространяться на ядерное вооружение, поскольку это может привести к "катастрофическому сценарию".