Производители роботов просят ООН запретить военный искусственный интеллект

116 спeциaлистoв, прeдстaвляющиx 26 стрaн мирa oбрaтились в OOН с прoсьбoй зaпрeтить рaзрaбoтку и испoльзoвaниe aвтoнoмнoгo oружия. Срeди aвтoрoв, пoдписaвшиx пeтицию прoтив использования автономных боевых роботов, — известный IT-инженер, главный исполнительный директор компании SpaceX Илон Маск и основатель компании, которая занимается искусственный интеллект DeepMind Мустафа Сулейман, передает BBC.

Письмо для обеспечения роботизированной техники, способной бороться без участия человека, направлен в ООН накануне начинается в Мельбурне конференции по вопросам искусственного интеллекта (AI), сообщает «Интерфакс».

Российские компании поддержали обращение Илона Маска о запрещении боевых роботов. Promobot и NaviRobot подписали открытое письмо о необходимости запрета военной AI. «Автономные смертоносное оружие может стать оружием диктаторов и террористов, используется против гражданских объектов. Хакеры могут взламывать и использовать его в недопустимых целях», — говорится в документе.

В соответствии с BFM.RU, основатель SpaceX Илон Маск почти каждый месяц делает заявления о необходимости контроля гриппа птиц — как военного и политического, но реальный искусственный интеллект, еще даже не создан. Не рано? Проблема в колоссальной скоростью прогресса, объяснил на одной из конференций основатель SpaceX:

«Здесь работает двойной экспоненциальный рост. Во-первых, растет в геометрической прогрессии вычислительные возможности микроэлектроники. Во-вторых, растет в геометрической прогрессии эффективность программного обеспечения, которое используется в AI. Когда в дело вступают двойные экспонентов, почти любой прогноз будет очень консервативным. Год назад все думали, что компьютер победит чемпиона для игры в го, по крайней мере, лет на 20. Весной было. Теперь, ваш компьютер может играть 50 одновременных матчей против лучших игроков мира, не имея возможности для победы — и это после года».

Программное обеспечение представляет прорыв в ИИ может произойти в любой момент, и с механической точки зрения все готово: робот, в том числе и прототипы боевых моделей, они строят по всему миру, — говорит генеральный директор NaviRobot Игорь Кузнецов: «Технологии уже позволяют выпустить в горячих точках робота в конструкции мехатроники, значит готовы мышцы, скелет, спинной мозг, но до сих пор не существует даже искусственный интеллект, который будет принимать решения. Если на борту есть искусственный интеллект, то он принимает решение сам, и здесь начинаются проблемы. Если он попадает в руки хакеров, террористов и других вредных персонажей, то это может привести к очень плохие результаты».

Предоставление автономии военный ИИ может привести — и это не преувеличение — в апокалиптические последствия. Наглядным примером может послужить история, которая произошла в начале 80-х годов, когда советская система предупреждения о ракетном нападении ошибочно зафиксировала пуск американских ракет с СССР. Мировой ядерной войны, чтобы предотвратить только бдительность офицера Станислава Петрова, который впоследствии стал лауреатом многих премий и героем документального фильма «Человек, который спас мир».

Те же ошибки будут присущи и на искусственный интеллект, — говорит соучредитель и директор по развитию Promobot Олег Кивокурцев: «сегодня мы можем с уверенностью сказать, что не существует никакой системы, которая может распознать объект правильно с точностью 100%. Это означает, что при установке робота зрелище на любой объект, что это возможно ошибка. Когда его уволили, может пострадать, или человек, то есть робот может путать военных с простым жителем, либо при наведении ракеты могут страдать жилой объект — робот может перепутать его с военной базы. Это одна из причин, почему стоит ограничивать и регулировать использование робота».

Правда, не следует забывать, что это неправильно, странно, интеллект является не только искусственной, но и обычной, человеческой. Это ясно демонстрируют, например, случайные уничтожения пассажирских самолетов системы ΑΕΡΆΜΥΝΑΣ, которые управляли люди. Поэтому, в идеале, надо запретить все оружие, пока не появятся безупречный робот — или безупречные люди.