Искусственный интеллект: ближайшее будущее. Использование ИИ в целях обороны и в военном деле. Что такое дроны, автономное оружие и роботы-убийцы

Дроны-убийцы — жуткое оружие будущего

Дроны повсеместно вошли в нашу жизнь. И из дорогой игрушки они уже превращаются в широкодоступный, необходимый и универсальный предмет. Однако первыми их возможности, как это чаще всего и бывает, оценили военные. Ударными и разведывательными беспилотными летательными аппаратами сейчас обладает любое уважающее себя государство. Военное командование давно осознало, что будущее войн стоит за высокоточным оружием, в то время как оружие массового уничтожения будет уходить в историю. А чем оружие точнее и быстрее, тем меньше в нем задействуется человек.

Именно эту тему подняли своим роликом активисты движения за запрет автономизации оружия. Впервые он был продемонстрирован на заседании Организации Объединенных Наций в Женеве, посвященному современным видам оружия. На сегодняшний день ролик «Slaughterbots», что можно вольно перевести как «Дроны-убийцы», набрал уже более двух с половиной миллионов просмотров. Видео, более напоминающее короткометражный художественный фильм, рассказывает о разработке нового вида оружия — миниатюрного дрона-убийцы. По сюжету, полностью автономные беспилотные машины способны сами находить заданную цель, анализируя информацию из социальных сетей и интернета, куда люди сами годами выкладывают все данные о себе. Найдя цель, дрон врезается в неё и поражает направленным взрывом, используя три грамма встроенной взрывчатки. Маленькие убийцы могут тысячами сбрасываться с самолетов в необходимом районе и прорывать любую оборону, при необходимости проделывая отверстия в окнах и стенах, самостоятельно уничтожая всех на своём пути. Однако именно автономность нового оружия становится его «ахиллесовой пятой» — контроль над новой техникой перехватывают террористы и атакуют американских политиков и студентов, подтверждая свою смертоносность тысячами жертв.

Чем же подобное любительское фантастическое размышление может быть интересным? Тем, что всё показанное может быть реализовано уже сейчас. В конце видео серьёзность данной угрозы подтверждает профессор информатики из Калифорнийского университета в Беркли Стюарт Рассел. Он утверждает, что все продемонстрированные технологии уже существуют и в ролике не показано ничего принципиально нереализуемого. Остаётся лишь собрать всё воедино и немного уменьшить. С ним согласны представители Института жизни будущего, принимавшие активное участие в съемке ролика. Члены института, такие как Илон Маск, Яан Таллинн (соавтор Skype), известные физики Макс Тегмарк и Энтони Агирр, а в прошлом и Стивен Хокинг, уже не первый год занимаются проблемами искусственного интеллекта, а их мнение является весомым в данной отрасли.

На самом деле, существую не только технологии, но и уже действующие модели со схожим назначением. Легкие дроны, на подобии тех моделей, что можно приобрести в обычном магазине, вооруженные стрелковым или даже ракетным вооружением уже существуют. А с 2011 года в армии США на вооружении стоит БПЛА «Switchblade «. Аппарат весит два с половиной килограмма и представляет собой дрон-камикадзе. Он может двигаться к цели практически бесшумно со скоростью до 160 км/ч, а благодаря миниатюрному размеру его чрезвычайно трудно сбить на подлете. В нем уже применяется система автономного наведения на цель, которую пока ещё задает человек. Разработчики уже заявили об испытаниях более компактной модели. Но следующим логичным шагом станет делегирование искусственному интеллекту и выбора цели.

Внедрение автономного оружия неизбежно. Простой солдат — его обучение и снаряжение — становится слишком дорогим для использования в бою. А желание уничтожать врага таким быстрым способом, не разрушая инфраструктуру, рано или поздно покорит умы военных чинов. Даже находясь в руках военных, беспилотная техника США убивает в среднем одного мирного жителя на четырёх противников, даже при условии, что многие операции отменялись из-за опасений гибели гражданского населения. Искусственный интеллект не будет столь обременен моральными устоями. Его действия будут максимально смертоносны и быстры, независимо от того, кто отдаёт ему команды. А в мире высоких технологий попадание такого оружия в руки террористов или преступников — это вопрос времени. Именно над этим и призывают задуматься создатели данного видео.

Военных роботов-убийц обвинили в склонности к массовому истреблению человечества

Бывший инженер Google Лора Нолан заявила, что международное сообщество должно запретить роботам-убийцам вести военные действия. По мнению уволившейся сотрудницы корпорации, без надлежащего контроля полностью автономное оружие может устроить «массовые зверства».

Читать еще:  Пасхальные рецепты – Пасхальная трапеза. Трапеза пасхальная. Секреты приготовления пасхи

«Если мы не будем осторожны с этими видами вооружений, роботы-убийцы могут внезапно развязать войну, уничтожить атомную электростанцию ​​и устроить массовые зверства», — заявила она.

Project Maven был совместной программой Google и Министерства обороны США. Её целью называлось усовершенствование дронов с помощью искусственного интеллекта. Нейросеть должна была распознавать на видео вражеские цели, а также отличать людей от других объектов. Из-за массовых протестов сотрудников корпорация закрыла проект. Нолан подала в отставку по этическим соображениям. Она была инженером по работе сайта проекта.

«Хотя я и не принимала непосредственного участия в разработке системы распознавания видео, я осознавала, что являюсь частью преступной цепочки. В конечном итоге это приведёт к тому, что американские военные убьют ещё больше людей в таких местах, как Афганистан», — объяснила свой поступок Нолан.

Женщина опасается, что следующим шагом после создания дрона с использованием ИИ может стать полностью автономное оружие. По её мнению, у машин нет здравого смысла, в отличие от людей. Также Нолан предположила, что Россия уже проводит такие испытания.

По словам сторонников автоматизации вооружений, оружие с ИИ работает гораздо точнее и совершает меньше ошибок, чем человек. Однако в 2015 году Стив Возняк, Илон Маск, Стивен Хокинг и ещё более 1000 разработчиков в сфере робототехники и ИИ подписали открытое письмо с предупреждением о том, что «автономное оружие станет калашниковым» будущего, «идеальным для убийств, дестабилизации государств, захвата населения и избирательного уничтожения определённой этнической группы».

В августе 2018 года ООН сформулировала принципы, которые можно было бы использовать для выработки будущих международных правил, касающихся летального автономного оружия. Главной из них является идея возложения ответственности на человека за любое автоматизированное оружие на протяжении всего его жизненного цикла. Это может отяготить производителей вооружения новыми обязательствами. По словам замминистра обороны США Роберта Уорка, в будущем может появиться враг, который не будет задумываться о том, делегировать машинам убийство людей или нет. А пока что у человечества есть возможность сохранить контроль над оружием.

У «Секрета фирмы» есть канал в «Яндекс.Дзене». Подписывайтесь!

Искусственный интеллект в ВПК

Содержание

Оценка рынка

2017: Расходы в $6,26 млрд

В марте 2018 года аналитическая компания MarketsandMarkets представила результаты исследования мирового рынка технологий искусственного интеллекта (ИИ), используемых в военных целях.

В 2017 году продажи соответствующих сервисов, программного обеспечения и оборудования в глобальном масштабе достигли $6,26 млрд. К 2025 году показатель поднимется до $18,82 млрд, а ежегодный рост рынка будет измеряться 14,75%, прогнозируют эксперты.

Главными драйверами подъема продаж военных ИИ-решений специалисты называют растущие инвестиции в разработку использующих искусственный интеллект интегрированных систем и расширенное использование облачных приложений.

Крупнейшим сегментом рынка ИИ-продуктов для нужд армии в MarketsandMarkets называют ПО, услуги и устройства, применяемые в наземных проектах. Использование искусственного интеллекта в беспилотных автомобилях способствует успешному выполнению различных операций, особенно тех, которые связаны с обезвреживанием взрывных устройств.

Наибольшие темпы роста расходов на рассматриваемом рынке ожидается в секторе программного обеспечения, что можно объяснить высокой значимостью такого софта в усилении ИТ-инфраструктуры, используемой для предотвращения инцидентов в области информационной безопасности, говорится в исследовании.

Что касается регионов с наибольшими расходами на военный искусственный интеллект, то в 2017 году лидером были США. Первое место страны аналитики связывают с необходимостью развития автоматизированных систем ведения войны, участием в ассиметричных военных действиях и различными программами модернизации, которые развивают вооруженные силы США и которые помогли крупным оборонным предприятиям создать в стране технологические продвинутые ИИ-системы для военных операций. [1]

Использование для распознавания лиц в темноте и через стены

В апреле 2018 года стало известно о создании американской армией системы, распознающей лица в темноте и даже сквозь стены. Разработка использует технологию искусственного интеллекта.

Лаборатория армейских исследований США (U.S. Army Research Laboratory, ARL) опубликовала в репозитории arXiv статью с описанием работы алгоритма, позволяющего распознавать лица на изображениях, полученных при помощи тепловизора.

По словам ученого Бенджамина Риггана (Benjamin Riggan) из ARL, при использовании тепловизионных камер для фиксации изображения лица в темноте основная проблема заключается в том, что полученное изображение должно сопоставляться с библиотекой, состоящей из фотографий, которые сделаны при нормальной видимости.

В ARL решили эту проблему путем создания алгоритма распознавания лиц на тепловых картах при помощи машинного обучения. Благодаря сверточной нейросети разработчики добились того, чтобы программа находила общие черты лица на изображениях, сделанных обычной камерой и с помощью тепловизора распределения электромагнитного теплового излучения.

Читать еще:  Как отличить лайку от хаски. Отличия пород сибирская хаски и аляскинский маламут

На тепловизионном изображении лица выделяются общие черты (например, контур лица) и отдельные (нос, рот и глаза), после чего сопоставляются с чертами из выборки, на которой обучена нейросеть, и составляются в видимые черты — уже на готовой фотографии лица. С использованием обученной модели, как утверждают ученые, удалось добиться точности распознавания лиц на уровне 85%.

К апрелю 2018 года алгоритм позволяет распознавать лица из маленькой базы данных, но в будущем планируется, что система сможет узнавать лица в реальном времени прямо в местах военных действий. Кроме того, разработку собираются интегрировать с тепловизором, способным видеть сквозь стены и также разрабатываемым в США.

В американской армии ожидают, что новая технология поможет находить места военных действий и идентифицировать главарей банд и других лиц, за которыми охотятся власти. [2]

Использование ИИ в ВПК (милитаризация — автономное оружие)

116 экспертов в области искусственного интеллекта и робототехники из 26 стран мира написали в августе 2017 года ООН открытое письмо с призывом запретить автономное оружие. Среди поставивших свои подпись числятся глава Tesla Илон Маск и сооснователь принадлежащей Google компании DeepMind Technologies Мустафа Сулейман.

«Смертельное автономное оружие может стать третьей революцией в военном деле. Оно позволит вести войну в невиданных ранее масштабах и со скоростью, которую люди не могут осознать. Это оружие станет оружием террора, применяемым деспотичными правителями и террористами против невинных людей, а также оружием, которое может быть взломано и действовать самым нежелательным образом», — говорится в письме. «У нас не осталось времени на раздумья. Как только этот ящик Пандоры откроется, закрыть его будет очень сложно», — резюмируют эксперты.

По словам авторов, на написание письма их толкнули две причины. Во-первых, поскольку их компании занимаются вопросами в области искусственного интеллекта и робототехники, в будущем они рискуют стать производителями автономного оружия, и эксперты чувствуют свою ответственность. Второй причиной стала отмена заседания «группы правительственных экспертов», запланированного на 21 августа в рамках Конвенции ООН об ограничении или запрете применения конкретных видов оружия. Встреча была отменена в связи с неуплатой некоторыми странами членских взносов в ООН.

Лидеры отрасли должны задуматься о том, как убедить правительства разных стран договориться о недопустимости милитаризации Интернета с помощью технологий машинного обучения, считает председатель Alphabet.

15 февраля 2017 года Эрик Шмидт поделился своими основными переживаниями по поводу будущего Интернета: в частности, важно проследить за тем, чтобы Интернет сохранил свою взаимосвязанность, а искусственный интеллект не стал орудием его милитаризации [3] .

«Возможности машинного обучения. должны исследоваться в открытую, а не в военных научных лабораториях», — заявил он на конференции RSA по вопросам кибербезопасности, проходившей в Сан-Франциско. Если бы Интернет разрабатывался в тесных рамках военных исследовательских лабораторий, «мы бы целыми днями волновались, не проникли ли военные в наши сети — Интернет бы пришлось понемногу закрыть, — сказал Шмидт. — Один из вопросов, которыми должна озаботиться наша отрасль, состоит в том, сможем ли мы найти способ убедить страны договориться о том, чтобы не использовать Интернет в военных целях посредством технологий машинного обучения» . Он отметил, что ближе к концу срока правления Обамы президент Китая Си Цзиньпин и президент США Обама подписали договор о сокращении количества кибератак между этими двумя странами. «По некоторым данным, это сработало», — сообщил Шмидт.

Управление стратегическим вооружением

Объединенный центр искусственного интеллекта, подразделение министерства обороны США, отвечающее за разработку и внедрение военных систем искусственного интеллекта, не станет оснащать такими технологиями центры управления стратегическим вооружением. Об этом, как пишет [4] Breaking Defense, заявил в сентябре 2019 года начальник центра генерал-лейтенант Джэк Шэнэхэн. По его словам, за запуски баллистических ракет всегда будут отвечать люди [5] .

Согласно действующим в США правилам, в состав дежурных подразделений наземных шахтных ракетных комплексов входят пять команд по два офицера в каждой. Одно такое подразделение отвечает за запуск 50 баллистических ракет. В случае, если руководство страны принимает решение о нанесении массированного ядерного удара по противнику, каждое подразделение получает приказ о запуске с кодом запуска. После получения приказа все пять команд должны сравнить содержащийся в нем код запуска с кодом, уже хранящимся в сейфах в центрах управления.

Если коды сходятся, каждый офицер должен проделать определенную последовательность действий, включая синхронный поворот ключей (у каждого дежурного свой ключ) и нажатие клавиши, которая запустит программу старта. Для того, чтобы запуск всех 50 баллистических ракет состоялся, необходимо, чтобы по крайней мере две команды в подразделении в точности выполнили пусковую последовательность действий. На подводных лодках за запуск ракет отвечают капитан, помощник капитана и команда дежурных. Здесь в приказе приходит код от сейфа, в котором хранится ключ запуска ракет.

Читать еще:  Как избавиться от раздражения после бритья. Из-за чего возникает раздражение после бритья и как от него избавиться

В мирное время баллистические ракеты нацелены на удаленные точки в океане. Во время подготовки к запуску дежурные подразделения перенацеливают ракеты на объекты противника. В случае, если баллистические ракеты запускаются с подводных лодок, то с момента получения приказа до выхода носителей из шахт субмарин проходит не более 15 минут. В случае запуска баллистических ракет из наземных шахт, он должен быть произведен точно во время, указанное в приказе. Это упрощенное описание запуска ракетного ядерного удара.

В настоящее время в России действует автоматизированная система боевого управления ответным ядерным ударом «Периметр». Система была разработана в СССР в 1970-х годах. Функциональные особенности системы засекречены; существует несколько версий о ее работе. По одной из версий, «Периметр» способен в полностью автоматическом режиме запустить баллистические ракеты по противнику в случае, если зафиксирует множественные ядерные удары по территории России и утратит связь с руководством страны и военным командованием.

По другой версии, система отвечает лишь за гарантированное доведение приказов об ответном ракетном ударе в условиях массированного ядерного удара. По этой версии, «Периметр» запускает командные ракеты, которые на некоторое время становятся своего рода ретрансляторами сигналов. Они обеспечивают связь с пунктами управления стратегическими комплексами в условиях ядерного загрязнения и радиоэлектронного подавления. За прием сигналов с ракет отвечают устройства, которыми оснащены все наземные ракетные комплексы, стратегические подводные ракетоносцы и бомбардировщики.

Управление истребителями

В июле 2016 года стало известно, что искусственный интеллект для управления истребителями ALPHA одержал уверенную победу над бывшим летчиком-асом американской армии в виртуальном воздушном бою, сообщало агентство ТАСС со ссылкой на японское издание Sankei Shimbun.

Искусственный интеллект ALPHA – совместная разработка Университета Цинциннати, промышленности и Военно-воздушных сил (ВВС) США. Программа создана специально, чтобы превзойти профессиональных летчиков-истребителей в виртуальном поединке.

Одним из них стал опытный пилот-инструктор, отставной полковник ВВС США Джин Ли. Он окончил Школу по отработке боевого применения истребителей [6] .

Во время виртуального боя, проходившего в крупном развлекательном центре, летчик не смог сделать ни одного удачного выстрела, поскольку интеллект ALPHA каждый раз делал это быстрее и точнее. ALPHA побеждал Ли, даже когда его «пересадили» на менее скоростной и маневренный самолет. Программа быстро переходила из атаки в оборону.

После поединка летчик признался, что из тех искусственных интеллектов, что он видел, ALPHA демонстрирует самую быструю реакцию, мощность и надежность.

В одном из виртуальных боев против ALPHA сражались два пилота на двух истребителях. Искусственный интеллект победил, одновременно управляя четырьмя самолетами. При этом для управления ALPHA использовался компьютер стоимостью всего $35.

Системы прицеливания и повышения смертоносности

В начале 2019 года Командование Армии США инициировало программу разработки виртуального помощника для экипажей танков и боевых машин, которые должны будут повысить эффективность их работы в условиях боя. Как пишет Breaking Defense [7] , система, получившая название ATLAS (Advanced Targeting & Lethality Automated System, автоматизированная расширенная система прицеливания и повышения смертоносности), будет создаваться с использованием технологий машинного обучения [8] .

Во время боя экипаж танка может не замечать некоторые дополнительные цели, а также в стрессовых условиях не достаточно быстро исполнять свои обязанности. Предполагается, что виртуальный помощник ATLAS снизит нагрузку на экипаж. В частности, системе предполагается доверить обнаружение целей, которые пропустили люди, приоритизировать обнаруженные цели, а также наводить на них орудие. Военные полагают, что новая система позволит повысить скорость реакции боевых машин в бою.

Согласно требованиям военных, система ATLAS будет обрабатывать не только данные с собственных датчиков и устройств боевой машины, но также получать данные с такого оборудования на других танках. Благодаря этому точность обнаружения новых целей значительно увеличится. Кроме того, это позволит точно идентифицировать закамуфлированные цели. ATLAS не сможет самостоятельно принимать решение об открытии огня — соответствующую команду должен будет отдать командир боевой машины.

Согласно предварительному плану, после испытаний роботов и опционально управляемых машин в 2020 году военные составят список рекомендаций по их доработке. Усовершенствованные прототипы будут испытываться в 2022 году. В 2024 году пройдут заключительные испытания машин-финалистов. По итогам трех этапов испытаний специалисты Армии США намерены определить задачи, выполнение которых можно было бы доверить роботизированным боевым машинам.

Распознавание объектов на спутниковых снимках

В августе 2016 года было объявлено, что компании Amazon, Nvidia, DigitalGlobe и специальное подразделение ЦРУ CosmiQ Works начали разработку искусственного интеллекта, который сможет распознавать объекты на спутниковых снимках (подробнее: SpaceNet).

Источники:

http://militaryarms.ru/novosti/drony-ubijcy-zhutkoe-oruzhie-budushhego/
http://secretmag.ru/news/voennykh-robotov-ubiic-obvinili-v-sklonnosti-k-massovomu-istrebleniyu-chelovechestva-16-09-2019.htm
http://www.tadviser.ru/index.php/%D0%A1%D1%82%D0%B0%D1%82%D1%8C%D1%8F:%D0%98%D1%81%D0%BA%D1%83%D1%81%D1%81%D1%82%D0%B2%D0%B5%D0%BD%D0%BD%D1%8B%D0%B9_%D0%B8%D0%BD%D1%82%D0%B5%D0%BB%D0%BB%D0%B5%D0%BA%D1%82_%D0%B2_%D0%92%D0%9F%D0%9A

Ссылка на основную публикацию
Adblock
detector