National Interest: «Терминаторы» уже угрожают человечеству?

В этом месяце эксперты в сфере искусственного интеллекта взбудоражили инженерное сообщество, когда призвали ООН рассмотреть вопрос об ограничении или даже запрете автономных систем летального оружия. Всё внимание глобальной паутины было приковано к заявлению генеральный директора SpaceX Илона Маска, который предупредил, что искусственный интеллект (ИИ) может таить в себе большую опасность, чем Северная Корея, пишет Сандра Эрвин в статье для The National Interest.

Группа из 116 экспертов в области ИИ направили в ООН открытое письмо, в котором говорилось, что «автономные системы летального оружия могут привести к третьей революции в приёмах ведения войны». Говоря от имени компаний, специализирующихся в разработке ИИ и роботизированных систем, которые могут быть перепрофилированы в автономные системы летального оружия, эксперты заявили: «Мы осознаём особую ответственность за приближение этой грозы».

Маск назвал ИИ экзистенциальной угрозой для человечества и призвал взять все разработки под особый контроль. Однако часть экспертов, подписавших письмо, признались, что Маск чересчур нагнетает панику.

]]>Беспилотный летательный аппарат ВМФ США В-47B совершил посадку на авианосец]]>

Беспилотный летательный аппарат ВМФ США В-47B совершил посадку на авианосец

Чем обернётся данное письмо для Пентагона, который направил огромные средства на разработку роботизированных систем вооружения, пока не ясно. Совещание ООН, на котором рассмотрят последствия развития автономных систем летального оружия, запланировано на ноябрь 2017 года. Эксперты призвали ООН найти средства, которые могли быть «предотвратить гонку вооружений в данной сфере, чтобы избежать возможных дестабилизирующих последствий и угроз для мирного населения».

Основатель и главный исполнительный директор компании по разработке программного обеспечения SparkCognition Амир Хусейн подписал это письмо, но заявил, что он выступает против любых действий, которые могли бы привести к замедлению технического прогресса. Он отметил, что первоначально инициатива была предложена профессором Университета Нового Южного Уэльса Тоби Уолшем и преследовала своей целью обратить внимание международной общественности на «потенциальные опасности, которые могут таить в себе автономные системы летального оружия, и на отсутствие широкой международной дискуссии по данному вопросу».

«Я уверен, что на данном этапе решение проблемы заключается в двойном увеличении инвестиций в разработку безопасных и прозрачных технологий ИИ», — заявил Хусейн.

Старший научный сотрудник аналитического центра «Атлантический совет»Август Коул считает, что необходимость обсуждения проблем автономных систем летального оружия присутствует, но запрет на развитие автономных систем, которые внедряются в различные сферы нашей жизни, нереализуем на практике. Коул призвал к развитию международных правовых и этических оснований.

Опасения также вызывает тот момент, что Пентагон пока не дал автономным системам летального оружия чёткого определения. В 2012 году Пентагон выпустил инструкцию по использованию автономных систем вооружений. Это единственный документ, которого придерживаются военные США при использовании подобных систем, заявил главный научный сотрудник НИЦ анализа военно-морских проблем (Center for Naval Analyses) Энди Илачинский. Согласно этому документу, оружие принадлежит к автономным системам, если «после его активизации оно может определять и поражать цели без дальнейшего вмешательства человека».

По мнению Илачинского, вопрос о введении новых руководящих принципов и инструкций в области автономных систем вооружений давно назрел. Научный совет министерства обороны США в 2012 и 2016 годах опубликовал два исследования по данному вопросу, но ни в одном из них «нет нормального определения, что такое автономные системы вооружений или ИИ», заявил Илачинский, добавив, что лучшие эксперты Пентагона так ничего и не смогли внятно сказать.

Тот факт, что программа AlphaGo, разработанная Google Deepmind, одержала победу над профессиональным игроком в логической настольной игре го, представляет собой важный прорыв в области ИИ, считает представитель НИЦ анализа военно-морских проблем. Однако в продвинутых системах, таких как AlphaGo «вы не можете провести инженерный анализ того, почему имело место то или иное действие», заявил Илачинский.

]]>Матч в игру Го между программой АльфаГо и Ли Седола]]>

Buster Benson

Матч в игру Го между программой АльфаГо и Ли Седола

«Для министерства обороны США важно осознать, что в один прекрасный момент они не смогут понять, почему система делает то, что она делает», — добавил Илачинский.

Причина громких заявлений Маска заключается в том, что до сих пор не понятно, что происходит в «мозгах» автономных систем после завершения их «обучения», считает сотрудник НИЦ анализа военно-морских проблем.

«Может оказаться, что вы не сможете предсказать поведение автономной системы, оснащенной ИИ. В этом смысле мне понятен страх, который испытывают такие люди, как Маск», — заявил Илачинский.

С другой стороны, слишком поздно говорить о запрете автономных систем, джин уже выпущен из бутылки. США не могу остановить разработки в данной области, поскольку другие страны, такие, как Китай, направляют все усилия на то, чтобы занять лидирующие позиции в сфере разработки ИИ. Кроме того, Пентагону постоянно приходится просчитывать возможные атаки врагов с использованием систем ИИ, которые в настоящий момент могут показаться немыслимыми. Например, любой может менее чем за тысячу долларов приобрести пару беспилотников, зайти на сайт Массачусетского технологического института, просмотреть исследования в области ИИ, скачать фрагменты компьютерного кода и загрузить их в беспилотники. Мы получим «рой умных дронов», это может стать «проблемой, которой будет трудно противостоять, потому что, во-первых, мы к этому не готовы, а во-вторых, это достаточно просто сделать за небольшие деньги», заявил научный сотрудник НИЦ анализа военно-морских проблем.

Александр Белов

]]>Истоник]]>

 

Загрузка...
Развернуть комментарии