Ведущие исследователи искусственного интеллекта выражают опасения по поводу «гонки по созданию военного ИИ» и тех последствий, которые она может принести для всего человечества. Свои опасения ведущие специалисты в этой области выразили на странице открытого письма к Организации Объединенных Наций (ООН), чтобы та рассмотрела «вопрос запрета разработки автоматизированного вооружения».
В своем открытом письме, опубликованном на официальном сайте организации Future of Life Institute (FLI), такие известные фигуры, как Стивен Хокинг, Элон Маск и Ноам Хомски выражают свои опасения по поводу того, что оружие, способное автоматически «выбирать и атаковать цели без человеческого вмешательства», может стать «автоматом Калашникова завтрашнего дня» и обернуться триггером к развязыванию новых войн, терроризма и глобальной неустойчивости, сообщает Агенство новостей Вести-UA.net со ссылкой на hi-news.ru
«Технология искусственного интеллекта достигла точки, после которой возможность развертывания и применения подобных систем становится вопросом уже не десятилетий, а всего нескольких лет», — указывается в открытом письме, в котором в качестве примере приводятся военные квадрокоптеры (их технология уже разработана и даже использовалась).
В письме также указывается, что несмотря на мнение о том, что технология автономного оружия может снизить человеческие потери на полях боя, это мнение является ошибочным, так как эта технология сама по себе может стать причиной новых войн.
«В отличие от атомного оружия, автономное вооружение не потребует использования дорогостоящего сырья и сверхтонкой ручной сборки, а следовательно, такое оружие станет массовым для любой крупной военной державы мира», — говорится в письме.
«Появление автономного оружия на черном рынке, в руках террористов и диктаторов, желающих подчинить себе волю народов, безумных палачей, которые будут выступать за этнические чистки, — все это в таком случае станет лишь вопросом времени. Автономное вооружение может идеально подходить для проведения убийств по политическим мотивам, использоваться в операциях по дестабилизации стран, подчинения населения и выборочного уничтожения конкретных этнических групп».
Заканчивается письмо предупреждением о том, что развитие автономного вооружения может наложить большую тень на область исследования искусственного интеллекта и вызвать «бурную и негативную реакцию общества», поставит крест на разработках тех технологий ИИ, которые действительно могли бы принести пользу человечеству. Авторы открытого письма выводят заключение, в котором говорят о «необходимости запрета на разработки автономного оружия, которое полностью бы исключало контроль со стороны человека» и взывают к помощи ООН.
Организация Future of Life Institute сама занимается вопросами искусственного интеллекта и указывает на то, что, по мнению специалистов ВВС США, «к 2030 году способности машин возрастут до такой степени, что человек станет самым слабым звеном в функционировании подобных систем». Сторонники, как и критики автономных систем вооружения, сходятся во мнении, что будет очень сложно установить четкую черту между тем, что можно, а что нельзя считать автономными системами вооружения.
Помимо Хокинга, Маска и Хомски и многих других видных ученых и деятелей, под открытым письмом, опубликованном на сайте FLI, подписались соучредитель компании Apple Стив Возняк, соучредитель Skype Ян Таллин, а также Демис Хассабис, исполнительный директор британской компании DeepMind, которая занимается исследованиями и разработками искусственного интеллекта (была куплена Google в прошлом году). Ранее на портале FLI уже публиковались аналогичные открытые письма. В одном из последних, например, опубликованных в январе этого года, звучали призывы к исследованию вопросов «общественной пользы», которую может принести развитие ИИ.
Напомним, Досрочный выход на пенсию в 2025 году: ПФУ объяснил, каких профессий это касается.
Ранее Вести-ua.net писали, Конец света, кипящие океаны, роботы-убийцы: самые страшные прогнозы от Хокинга.
Также Вести-ua.net сообщали, "Жирная" цель в Ростовской области: в WSJ назвали место для удара ATACMS или Storm Shadows.
Почему вы можете доверять vesti-ua.net →