На информационном ресурсе применяются рекомендательные технологии (информационные технологии предоставления информации на основе сбора, систематизации и анализа сведений, относящихся к предпочтениям пользователей сети "Интернет", находящихся на территории Российской Федерации)

БАЗА 211- ВОЕННАЯ ИСТОРИЯ

74 290 подписчиков

Свежие комментарии

  • Z Muliphein
    У меня муж плохо ходит и почти ничего не видит. Инвалид. Но 80 кг веса. Я вешу 58 кг. Я не представляю, какой рюкзак ...ЕСЛИ ПОПАЛ ПОД ОБ...
  • Владимир Петров
    Человек  - легенда,даже не верится ,что один человек совершил столько подвигов и на военном поприще и на гражданском...Ученый, трижды не...

Убить интеллектом



Перспективы развития ВВСТ практически всеми военными специалистами ассоциируются в первую очередь с информатизацией, роботизацией, автоматизацией управления войсками и оружием. Во всех случаях это неизбежно предопределяет создание компьютерных систем военного назначения, обеспечивающих обработку гигантских объемов информации, выработку оптимальных решений в соответствии с динамикой боевых действий. Но даже самая высокая автоматизация работы командира не заменит обеспечения ее системами искусственного интеллекта (ИИ).

Сразу определим разницу между автоматизацией процессов управления войсками и применением систем искусственного интеллекта. В первом случае речь идет о вычислительных машинах, оснащенных совокупностью алгоритмов сбора, классификации, структурирования информации, которая затем используется как система исходных данных для решения боевых задач с помощью формализованных методов. Совсем другое – искусственный интеллект, который может самостоятельно вырабатывать готовые решения, образно говоря, мыслить за командира.



Человек или машина?

В настоящее время применение образцов ВВСТ, оснащенных автоматизированными системами управления, алгоритмически обеспечено в большей мере, чем управление войсками. Это объясняется более узким объемом вариантов боевого применения оружия и техники, когда управление невозможно, скажем, в аварийных ситуациях. В большинстве случаев неполнота информации по боевой обстановке не позволяет корректно выполнить задачи по управлению войсками, что существенно снижает адекватность принимаемых решений либо вообще не позволяет их исполнить. Если алгоритмически это не предусмотрено, то автоматизированная система оказывается бесполезной.

В ходе боевых действий схожие ситуации не повторяются, поэтому создать алгоритмы, пригодные для всех случаев управления войсками, практически невозможно. В итоге автоматизация этих процессов пока что является лишь инструментом подготовки исходной информации для принятия решения командиром.

Командир может принимать решения, зная не только оперативную обстановку, силы и средства противника, но и особенности его психологии, менталитета своих подчиненных. Таким образом можно назвать основные отличия интеллектуализации по отношению к автоматизации – это реализация способности принимать решения в условиях значительной неопределенности, на основе разнородной информации, часто меняющихся ситуаций. Большое значение имеет также самообучаемость и адаптивность как способность системы самостоятельно совершенствовать заложенное в нее программное обеспечение, в том числе осуществлять самопрограммирование в ситуациях, реакция на которые алгоритмически не предусмотрена.

Устоявшегося определения искусственного интеллекта в настоящее время нет, но можно сказать, что ИИ – это способность компьютера принимать решения в бесконечно разнообразных ситуациях аналогично человеку. Известный ученый Тьюринг сформулировал тест, который, по его мнению, позволит определить наличие искусственного интеллекта у машины. Кратко суть его в том, что человек, вслепую общаясь с машиной и другим человеком, не должен определить, кто есть кто.

В настоящее время самая совершенная АСУ неспособна пройти такой тест, поскольку в абсолютном большинстве такие системы предметно жестко ориентированы, а количество решаемых ими задач конечно. Чем большее количество алгоритмов решения разнородных вопросов внесено в операционную систему компьютера, тем больше он будет походить на систему с ИИ. Но превращать компьютер в человека, обеспечивая возможность его одинаково квалифицированно решать проблемы управления техническими объектами и театральными постановками, нет никакой необходимости.

ИИ всегда будет предметно ориентирован, однако такие качества, как адаптивность, самообучаемость и интуитивность, останутся главными отличиями систем с ИИ от АСУ. Проще говоря, если мы будем иметь полное представление о том, какие действия предпримет автоматизированная система, то в случае с ИИ такого понимания не будет. Самообучаясь, компьютер самостоятельно программирует свою работу. Самопрограммирование и есть главный отличительный признак ИИ.

Агентство перспективных исследовательских проектов Министерства обороны США (DARPA) намеревается за четыре года создать для военных нужд искусственный интеллект нового поколения, максимально близкий к человеческому. В техническом задании к проекту L2M (Life Learning Machines – «Бесконечно обучаемые машины») специалисты DARPA сформулировали основные требования: перспективный ИИ должен уметь самостоятельно принимать решения, быстро реагировать на изменения окружающей обстановки, запоминать результаты своих предыдущих действий и руководствоваться ими в дальнейшей работе.

Такие технические гиганты, как Google, Apple, Salesforce и IBM, понимая перспективность систем с искусственным интеллектом, стремятся приобретать компании, занимающиеся ИИ (с 2011 года около 140 из них уже приобретено). Характерно, что в настоящее время делается упор на ИИ для решения наземных транспортных проблем, например создание автомобилей без водителей. Уже в ближайшем будущем это сулит значительную отдачу от вложенных в общественный транспорт капиталов за счет низких издержек эксплуатации, незначительного количества аварий, экологической чистоты.

Полученный опыт позволит этим фирмам в дальнейшем перейти к следующему шагу – освоению трехмерного пространства, то есть созданию ИИ для управления летательными аппаратами. Адмирал ВМС США Рей Мабус, выступая на одной из конференций в 2015 году, заявил, что самолет F-35 должен и почти наверняка станет последним пилотируемым истребителем-штурмовиком, который закупит или будет использовать военно-морское ведомство. Если учесть, что поставки F-35 в ВВС запланированы вплоть до 2037 года, а списаны они должны быть к 2070-му, то можно предположить: к середине века США планируют создать полностью беспилотные боевые летательные аппараты, оснащенные системами с ИИ. В 2016 году искусственный интеллект для управления истребителями ALPHA одержал уверенную победу над бывшим летчиком-асом американской армии в виртуальном воздушном бою. ИИ ALPHA – совместная разработка Университета Цинциннати, предприятий промышленности и ВВС США. Более того, в одном из подобных боев против ALPHA сражались сразу два пилота на двух истребителях. Искусственный интеллект победил, одновременно управляя четырьмя самолетами.

Мозговая атака

Еще одна область применения ИИ – медицина, где возможен переход от уже существующих компьютерных систем поддержки приятия решений в процессе постановки диагноза и выбора схемы лечения врачом к созданию автономных врачей-роботов, в том числе хирургов для проведения сложных операций. Преимущества очевидны: минимизация врачебных ошибок при диагностике заболеваний и назначении лекарств, выбор и безупречная реализация оптимального алгоритма хирургических операций, отсутствие при длительных операциях усталости, более высокая скорость их проведения.

Убить интеллектомЧто касается боевых действий, то это способность обеспечить эффективную реанимацию раненых, быструю локализацию негативных последствий при непредсказуемом характере ранений. Достижения в сфере ИИ позволят создать системы реабилитации раненых за счет управления пораженными внутренними органами человека, нейроуправления протезами при потере конечностей.

Исходя из всего этого можно выделить ряд основных проблем, решение которых способно обеспечить создание систем ИИ применительно к военной деятельности.

1. Представление знаний – разработка методов структуризации, классификации и формализации знаний из различных проблемных областей (политических, военных, военно-технических, психологических, организационных и т. д.) для выработки решений в предвоенный период.
2. Моделирование рассуждений (процессов принятия решений) – изучение и формализация различных схем человеческих умозаключений на основе разнородной информации для ведения боевых действий, создание эффективных программ реализации этих схем в ЭВМ.

3. Создание диалоговых процедур общения на естественном языке, обеспечивающих контакт между интеллектуальной системой и человеком-специалистом в процессе решения задач, в том числе при передаче и приеме неформализованных команд в экстремальных ситуациях, связанных с риском для жизни.

4. Планирование боевой деятельности – разработка методов построения алгоритмов управления на основании знаний о проблемной области, которые хранятся в интеллектуальной системе и непрерывно поступают от различных и разнородных источников информации: разведывательной, геодезической, топографической, метеорологической, гидрографической и т. д.

5. Обучение и актуализация интеллектуальных систем в процессе их деятельности, создание средств накопления и обобщения умений и навыков.

Каждая их этих проблем имеет чрезвычайную сложность. Достаточно сказать, что только для решения одной подзадачи в 2016 году Пентагоном было создано новое подразделение – Project Maven («Проект Знаток»), которое занимается созданием ИИ для анализа развединформации, поступающей от беспилотных летательных аппаратов, работающих в Сирии и Ираке. Персонал аналитических центров, которые этим занимаются, не справляется с обработкой и анализом поступающих огромных массивов данных. До 80 процентов их рабочего времени занимает просто просмотр кадров. Предполагается, что с помощью ИИ будут идентифицироваться объекты военного назначения, представляющие опасность для своих войск, выявляться последовательность действий на земле для предотвращения террористических актов, замыслы боевиков.

В августе 2016 года компании Amazon, Nvidia, DigitalGlobe и специальное подразделение ЦРУ CosmiQ Works начали разработку искусственного интеллекта, который сможет распознавать объекты на спутниковых снимках. Предполагается использование ИИ также в такой сфере межгосударственного противоборства, как информационная война. В 2014 году компания Associated Press объявила, что отныне большая часть новостей, связанных с доходами компаний, будет создаваться с помощью роботов. В 2016-м роботы-репортеры Associated Press несколько расширили свою тематику. Им стали поручать подготовку небольших новостных заметок, связанных с Малой бейсбольной лигой США.

Использует роботов-журналистов и журнал Forbes, для которого компания Narrative Science создала соответствующую специализированную платформу. В ноябре 2015 года аналогичное направление разработок открыла российская компания «Яндекс». Пока искусственный интеллект «Яндекса» выпускает лишь короткие заметки о погоде и ситуации на дорогах, однако в дальнейшем ее представители обещают расширить список тематик для публикаций.

Соучредитель компании Narrative Science К. Хэммонд полагает, что к 2025 году 90 процентов всех текстов в мире будет готовиться искусственным интеллектом. Разработанные в этих целях алгоритмы могут эффективно применяться также для сбора разведывательной информации в отношении стран, организаций и физических лиц, ее анализа и подготовки различного рода материалов, в том числе в интересах информационной борьбы. В частности, для дискредитации действий страны, ее правительства, лидеров партий и движений на международной арене. Причем такого рода действия уже предпринимались в ходе подготовки практически всех «цветных революций», но при этом использовался человеческий интеллект. ИИ будет делать это гораздо быстрее и массированнее. Известный американский предприниматель Илон Маск в письме в ООН охарактеризовал эту опасность как угрожающую человечеству, способную спровоцировать войну, когда ИИ будет создавать фейковые новости и пресс-релизы, подделывать учетные записи электронной почты и манипулировать информацией. Аналогичные опасения высказывают и другие ученые.

Особо выделим такой аспект возможностей, который должен быть реализован в ИИ, как самообучение. Он положен американскими специалистами в основу разработки так называемого концепта контр-автономности. Суть его в том, что подвергшаяся нападению ИИ-система должна быстро обучаться: делать исчерпывающие выводы из факта и способа нападения, оценивать характеристики примененных при этом технических средств, определять способы эффективного противодействия. То есть каждая атака противника сделает ИИ-систему еще более эффективной, если не уничтожит ее с первого раза либо радикально не изменит способы нападения.

О попытках реализации указанного концепта говорит заявление директор DARPA Арати Прабхакар, которая в 2016 году сообщила о проекте по борьбе с программируемыми радарами России (упоминается «Небо-М») и Китая: «Одна из наших программ в DARPA использует совершенно новый подход к этой проблеме, которую мы собираемся разрешить с помощью когнитивного электронного вооружения. Мы применяем искусственный интеллект для изучения действий вражеского радара в режиме реального времени, а затем создаем новый метод глушения сигнала. Весь процесс восприятия, изучения и адаптации повторяется без перерыва».

Таким образом, интеллектуализация военной деятельности практически стала фактом. Активно создаются системы различного назначения, оснащенные искусственным интеллектом. Однако на этом пути есть ряд философских вопросов. Мы не всегда можем по-настоящему объяснить мыслительные процессы свои и других людей, но интуитивно доверяем или не доверяем поступкам. Будет ли это также возможно при взаимодействии с машинами, которые думают и принимают решения самостоятельно и не совсем понятно как? Как будут чувствовать себя пилоты самолетов, экипажи танков и другой военной техники, работающие с самолетами и танками-роботами, действия которых непредсказуемы? Как поведет себя робот, «мозги» которого будут сотрясаться средствами радиоэлектронной борьбы, ударами взрывных волн, пуль и осколков, как отразится такая «контузия» на их поведении? Наконец, способен ли интеллектуальный робот выйти из подчинения?

Подобных вопросов много, но внятного ответа на них нет. Похоже, человечество действует здесь, руководствуясь правилом Наполеона: главное – ввязаться в бой, а там посмотрим.
Автор: Буренок Василий
Первоисточник: http://vpk-news.ru/articles/39104
Ссылка на первоисточник

Картина дня

наверх