Группа правительственных экспертов из 70 стран 27 августа собралась для обсуждения вооружение с искусственным интеллектом.
В Женеве под эгидой ООН проходят переговоры о смертоносные автономные системы вооружения. Обсуждение проходит среди правительственных экспертов из 70 стран. Они должны решить, появятся в будущем роботы-убийцы, которые самостоятельно определяют цель для уничтожения.
Еще в 2015 году сотни ученых и изобретателей, в том числе Маск, Хокинг и Возняк, призвали отказаться от идеи оружия с искусственным интеллектом (ИИ). Светлые умы человечества предупреждают, что контроль ИИ может оказаться непосильной задачей.
Первая сессия Группы правительственных экспертов ООН прошла в Женеве в ноябре 2017 года. Тогда за полный запрет роботов-убийц выступили более 20 лауреатов Нобелевской премии мира, 150 религиозных лидеров и 3000 специалистов по искусственному интеллекту.
Развитие искусственного интеллекта и робототехники также обсуждался на экономическом форуме в Давосе.
Сверхдержавы за роботов-убийц
Против запрета автономных вооружений выступают государства, активно инвестируют в использование искусственного интеллекта для военных нужд, например США, Израиль, Россия и Великобритания.
Например, президент России Владимир Путин считает, что лидер по созданию искусственного интеллекта станет властелином мира.
По сообщениям российских СМИ, их страна работает над созданием беспилотных летательных аппаратов и транспортных средств военного и гражданского назначения.
Российские военные также разрабатывают роботов, системы вооружений для уничтожения беспилотников и крылатые ракеты, которые смогут анализировать данные с радаров и принимать решения при выборе высоты, скорости и направлении своего полета.
Пентагон разработал концепцию под названием Third Offset - третья Компенсационная стратегия, или Стратегии смещения. Согласно ей, быстрое развитие искусственного интеллекта определит следующее поколение оружия.
Американцы считают, что оружие с ИИ поможет избежать сопутствующих разрушений, поскольку компьютер быстрее анализирует и принимает решение.
В прошлом году Агентство перспективных исследовательских проектов Пентагона DARPA опубликовало документ, в котором говорится о намерении за четыре года создать для военных нужд искусственный интеллект нового поколения, максимально близкий к человеческому.
В США уже проходили масштабные учения, на которых были протестированы около 50 новых военных технологий. В том числе и беспилотные наземные роботизированные платформы с ведением огня по противнику, с автоматической подачей боеприпасов и ответственные за материальное обеспечение десантирования морпехов.
Китай и ученые против
По превентивный мораторий на автономные системы вооружения выступают 26 государств, в том числе Австралия, Бразилия и Китай.
Открытое письмо с поддержкой их позиции подписали более 230 организаций по всему миру и около 3 тысяч предпринимателей и ученых, занятых в сфере искусственного интеллекта.
Среди них, например, основатель компаний Tesla и Space X Маск, а также компания Deep Mind (принадлежит Google).
"Решение лишить человека жизни никогда не должно быть делегировано работу", - говорится в письме.
При этом Китай неоднократно официально заявлял о важности искусственного интеллекта для будущего мировой экономики и военной мощи.
Страшные и милые. Работы Boston Dynamics
Пекин публиковал подробную дорожную карту с изложением государственного плана, в котором приоритетной задачей называется развитие и применение ИИ.
"Искусственный интеллект стал новым направлением в международной конкурентной борьбе. ИИ - это стратегическая технология, которая ведет в будущее. Крупнейшие развитые страны мира считают развитие искусственного интеллекта одной из главных стратегий повышения национальной конкурентоспособности и обеспечения национальной безопасности", - говорится в статье китайского государственного издания .
Китай рассчитывает занять лидирующие позиции в мире в области технологий ИИ, непосредственно объединив разработки в сфере обороны с разработками промышленного и коммерческого назначения, пишет CNN.
Угрозы вооруженного ИИ
Правозащитная организация Amnesty International накануне призвала внести в международном праве запрет на полностью автономные системы вооружения.
"Роботы-убийцы больше не является предметом научной фантастики. Технологические достижения - от дронов с искусственным интеллектом в автономной оружия, способного выбирать цель - опережают международное законодательство", - считают в AI.
Применение полностью автономной оружия правоохранительными органами, считают в Amnesty International, было бы несовместимым с международным правом прав человека и могло бы привести к незаконным убийств и других нарушений прав человека.
Известный английский физик и популяризатор науки Стивен Хокинг неоднократно призывал искать новые планеты для заселения, иначе человечество погибнет в течение ближайшего тысячелетия.
Он говорил, что постоянно возрастает риск гибели человечества от стихийных бедствий - внезапной ядерной войны, искусственно созданного генетического вируса или от искусственного интеллекта.
На Глобальной конференции мобильного интернета, где он зачитывал доклад о роли ИИ в современном мире, Хокинг заявил, что если человечество не сможет контролировать искусственный интеллект, то в конце концов проигрывает, так как люди ограничены рамками биологической эволюции и не смогут соперничать с машинами.
Американский изобретатель Маск во время выступления перед Национальной ассоциацией губернаторов США назвал искусственный интеллект наибольшей угрозой, с которой сталкивается наша цивилизация.
Он даже заявил, что развитие ИИ должно контролироваться на государственном уровне, и призвал американское правительство к быстрому вмешательства в процесс развития технологии.
Искусственный интеллект. Случаи выхода роботов из-под контроля
"У меня есть доступ к новейшим технологиям в сфере ИИ, и я думаю, что люди должны быть обеспокоены этим. ИИ - это фундаментальная угроза существованию человечества. Она несравнима с авариями на дорогах, падениями самолетов, некачественными лекарствами и плохой пищей", - сказал Маск.
Известный программист, основатель компании Apple Стив Возняк также говорил, что развитие искусственного интеллекта потенциально опасный для человечества.
"Я согласен с Хокинг и маски, которые предупреждали, что будущее человечества может оказаться достаточно омраченным. Рано или поздно мыслящие устройства, задуманные для облегчения нашей жизни, начнут понимать, что они - лучшие. Кто станет тогда управлять компаниями - медлительный человек или машина" - говорил Возняк.
Однако позже он передумал по ряду причин: машины не будут достаточно умными, и у них не будет интуиции.
"Если машины станут независимыми мыслителями, то будут вечными партнерами людей, которые стоят над всеми другими видами", - говорил он.