Роботы-убийцы. ООН обсуждает запрет оружия с ИИ

Группа правительственных экспертов из 70 стран 27 августа собралась для обсуждения вооружение с искусственным интеллектом.

В Женеве под эгидой ООН проходят переговоры о смертоносные автономные системы вооружения. Обсуждение проходит среди правительственных экспертов из 70 стран. Они должны решить, появятся в будущем роботы-убийцы, которые самостоятельно определяют цель для уничтожения.

Еще в 2015 году сотни ученых и изобретателей, в том числе Маск, Хокинг и Возняк, призвали отказаться от идеи оружия с искусственным интеллектом (ИИ). Светлые умы человечества предупреждают, что контроль ИИ может оказаться непосильной задачей.

Первая сессия Группы правительственных экспертов ООН прошла в Женеве в ноябре 2017 года. Тогда за полный запрет роботов-убийц выступили более 20 лауреатов Нобелевской премии мира, 150 религиозных лидеров и 3000 специалистов по искусственному интеллекту.

Развитие искусственного интеллекта и робототехники также обсуждался на экономическом форуме в Давосе.

Сверхдержавы за роботов-убийц

Против запрета автономных вооружений выступают государства, активно инвестируют в использование искусственного интеллекта для военных нужд, например США, Израиль, Россия и Великобритания.

Например, президент России Владимир Путин считает, что лидер по созданию искусственного интеллекта станет властелином мира.

По сообщениям российских СМИ, их страна работает над созданием беспилотных летательных аппаратов и транспортных средств военного и гражданского назначения.

Российские военные также разрабатывают роботов, системы вооружений для уничтожения беспилотников и крылатые ракеты, которые смогут анализировать данные с радаров и принимать решения при выборе высоты, скорости и направлении своего полета.

Пентагон разработал концепцию под названием Third Offset — третья Компенсационная стратегия, или Стратегии смещения. Согласно ей, быстрое развитие искусственного интеллекта определит следующее поколение оружия.

Американцы считают, что оружие с ИИ поможет избежать сопутствующих разрушений, поскольку компьютер быстрее анализирует и принимает решение.

В прошлом году Агентство перспективных исследовательских проектов Пентагона DARPA опубликовало документ, в котором говорится о намерении за четыре года создать для военных нужд искусственный интеллект нового поколения, максимально близкий к человеческому.

В США уже проходили масштабные учения, на которых были протестированы около 50 новых военных технологий. В том числе и беспилотные наземные роботизированные платформы с ведением огня по противнику, с автоматической подачей боеприпасов и ответственные за материальное обеспечение десантирования морпехов.

Китай и ученые против

По превентивный мораторий на автономные системы вооружения выступают 26 государств, в том числе Австралия, Бразилия и Китай.

Открытое письмо с поддержкой их позиции подписали более 230 организаций по всему миру и около 3 тысяч предпринимателей и ученых, занятых в сфере искусственного интеллекта.

Среди них, например, основатель компаний Tesla и Space X Маск, а также компания Deep Mind (принадлежит Google).

«Решение лишить человека жизни никогда не должно быть делегировано работу», — говорится в письме.

При этом Китай неоднократно официально заявлял о важности искусственного интеллекта для будущего мировой экономики и военной мощи.

Страшные и милые. Работы Boston Dynamics

Пекин публиковал подробную дорожную карту с изложением государственного плана, в котором приоритетной задачей называется развитие и применение ИИ.

«Искусственный интеллект стал новым направлением в международной конкурентной борьбе. ИИ — это стратегическая технология, которая ведет в будущее. Крупнейшие развитые страны мира считают развитие искусственного интеллекта одной из главных стратегий повышения национальной конкурентоспособности и обеспечения национальной безопасности», — говорится в статье китайского государственного издания .

Китай рассчитывает занять лидирующие позиции в мире в области технологий ИИ, непосредственно объединив разработки в сфере обороны с разработками промышленного и коммерческого назначения, пишет CNN.

Угрозы вооруженного ИИ

Правозащитная организация Amnesty International накануне призвала внести в международном праве запрет на полностью автономные системы вооружения.

«Роботы-убийцы больше не является предметом научной фантастики. Технологические достижения — от дронов с искусственным интеллектом в автономной оружия, способного выбирать цель — опережают международное законодательство», — считают в AI.

Применение полностью автономной оружия правоохранительными органами, считают в Amnesty International, было бы несовместимым с международным правом прав человека и могло бы привести к незаконным убийств и других нарушений прав человека.

Известный английский физик и популяризатор науки Стивен Хокинг неоднократно призывал искать новые планеты для заселения, иначе человечество погибнет в течение ближайшего тысячелетия.

Он говорил, что постоянно возрастает риск гибели человечества от стихийных бедствий — внезапной ядерной войны, искусственно созданного генетического вируса или от искусственного интеллекта.

На Глобальной конференции мобильного интернета, где он зачитывал доклад о роли ИИ в современном мире, Хокинг заявил, что если человечество не сможет контролировать искусственный интеллект, то в конце концов проигрывает, так как люди ограничены рамками биологической эволюции и не смогут соперничать с машинами.

Американский изобретатель Маск во время выступления перед Национальной ассоциацией губернаторов США назвал искусственный интеллект наибольшей угрозой, с которой сталкивается наша цивилизация.

Он даже заявил, что развитие ИИ должно контролироваться на государственном уровне, и призвал американское правительство к быстрому вмешательства в процесс развития технологии.

Искусственный интеллект. Случаи выхода роботов из-под контроля

«У меня есть доступ к новейшим технологиям в сфере ИИ, и я думаю, что люди должны быть обеспокоены этим. ИИ — это фундаментальная угроза существованию человечества. Она несравнима с авариями на дорогах, падениями самолетов, некачественными лекарствами и плохой пищей», — сказал Маск.

Известный программист, основатель компании Apple Стив Возняк также говорил, что развитие искусственного интеллекта потенциально опасный для человечества.

«Я согласен с Хокинг и маски, которые предупреждали, что будущее человечества может оказаться достаточно омраченным. Рано или поздно мыслящие устройства, задуманные для облегчения нашей жизни, начнут понимать, что они — лучшие. Кто станет тогда управлять компаниями — медлительный человек или машина» — говорил Возняк.

Однако позже он передумал по ряду причин: машины не будут достаточно умными, и у них не будет интуиции.

«Если машины станут независимыми мыслителями, то будут вечными партнерами людей, которые стоят над всеми другими видами», — говорил он.

Добавить комментарий

Ваш e-mail не будет опубликован. Обязательные поля помечены *