116 спeциaлистoв из 26 стрaн мирa oбрaтились в OOН зaпрeтить рaзрaбoтку и испoльзoвaниe aвтoнoмнoгo oружия. Срeди aвтoрoв, кoтoрыe пoдписaли мaнифeст против использования автономных боевых роботов — известный инженер, генеральный директор spacex Элон Маск и основатель компании, занимающиеся искусственным интеллектом, DeepMind Мустафа Сулейман, передает НТВ.
Письмо О роботизированной технологии, возможность выполнять операции без участия человека обратились в ООН до начала конференции в Мельбурне по искусственному интеллекту (ИИ), сообщает «Интерфакс».
Российская компания поддержала запрет Элон маск боевых роботов. Promobot и Навиробот подписали открытое письмо о необходимости введения запрета военного ИИ. «Автономный смертоносное оружие может стать инструментом диктаторов и террористов против мирного населения. Хакеры могут взломать их и использовать их в недопустимых целях», — говорится в документе.
По данным BFM.RU что основатель spacex Элон Маск чуть ли не каждый месяц, выступает с заявлениями о необходимости контроля ИИ — и военных, и гражданских, но истинный искусственный интеллект еще не создан. Не слишком рано? Проблема-это тревожные темпы прогресса, он объяснил в лекции основатель spacex:
«Двойной экспоненциальный рост. Во-первых, экспоненциально растущей вычислительной мощности микроэлектроники. Во-вторых, многократно увеличивая эффективность программного обеспечения, используемого в МЗ. Когда дело доходит до двойной экспоненты, почти любое предсказание будет слишком консервативным. Год назад все думали, что команда, которая выиграла чемпиона в игре пройти как минимум 20 лет. Весной это произошло. И теперь компьютер может играть 50 одновременных игр против лучших игроков в мире, без возможности проиграть — и это год спустя».
Программного обеспечения прорыва в ИИ может произойти в любой момент, и с механической точки зрения все дело: роботы, включая прототипы, военные модели, построенные по всему миру, говорит генеральный директор компании Навиробот Игорь Кузнецов: «технологии позволяют производить тепло роботами с точки зрения мехатроники, который устраивается на мышцы, скелет, позвоночник, но еще один искусственный интеллект, который будет принимать решения. Если на столе есть искусственный интеллект, он решает сам, и здесь начинаются проблемы. Если он попадает в руки хакеров, террористов и прочих нехороших персонажей, что может привести к очень плохим результатам».
Предоставление самостоятельности в военных ИИ может привести — и это не преувеличение — апокалиптические последствия. Наглядным примером может служить история, произошедшая в начале 80-х годов, когда Советская система предупреждения о ракетном нападении, ошибочно зафиксировали пуск ракеты из США в СССР. Глобальную ядерную войну удалось предотвратить только благодаря бдительности дежурного офицера Станислава Петрова, который впоследствии стал лауреатом нескольких премий и предмет документального фильма «человек, который спас мир».
Одни и те же ошибки присущи и искусственного интеллекта,-говорит соучредитель и директор по развитию компании promobot Олег Kiokure: «сегодня мы можем с уверенностью сказать, что нет системы, которая способна правильно распознавать объект со 100% точностью. Это означает, что она идет от глаз робота любого объекта возможной ошибки. Выстрел может пострадать, или человек, то есть робот может путаете военных с простой житель, или пропуская ракету может повредить объект жилой зоне, робот может путать с военной базы. Это одна из причин, почему надо ограничивать и регулировать использование роботов».
Однако, мы не должны забывать, что человеку свойственно ошибаться интеллект не только искусственные, но и общечеловеческого. Об этом красноречиво свидетельствует, например, случайное сбитие пассажирского самолета системы защиты, которая контролируется людьми. Поэтому, идеальным решением будет запрет всего оружия до гениального робототехника или недостатки людей.