Статья
2331 18 марта 2024 11:00

Высокотехнологичная милитаризация

Технологии ИИ уже широко применяются в сфере образования, здравоохранения, совершенствования привычных цифровых сервисов и других отраслях. Впрочем, использование ИИ не ограничивается созидательными направлениями. 

Сигналы о внедрении соответствующих технологий в военной сфере только за последние 2 месяца были зафиксированы сразу в нескольких странах: России, США, Великобритании и Франции. На фоне роста внимания государств к потенциалу подобных разработок, можно с уверенностью говорить о приближающейся милитаризации ИИ. Тем не менее данный тренд, вероятно, будет сопровожден рядом рисков и проблем: как технических, так и политических. 

Недостаток данных

Любая модель, которой можно приписать свойства ИИ, функционирует вследствие предварительного обучения на определенных данных. Запомнив некоторые закономерности, она впоследствии находит или реализует их в реальном мире, на новых данных. 

В чем ограничение военных разработок? Подобная область требует в большинстве случаев крайне специфические данные. Можно допустить существование широкого спектра направлений в военной области, в которых был бы применим ИИ. Тем не менее многие из них характеризуются одной особенностью — ИИ должно учиться ориентироваться в боевых условиях. 

Данный факт предполагает 2 ограничения: во-первых, боевые условия обусловлены большим, практически неконтролируемым, набором вводных, а следовательно, их затруднительно формализовать; во-вторых, боевые условия едва ли можно воспроизводить с высокой точностью. 

Профессора из Шведского агентства оборонных исследований отмечают, что нехватка данных для обучения может восполняться их симуляцией. Впрочем, замечают сами авторы идеи, велика вероятность того, что модели, обученные на синтетических данных, будут хуже работать в «реальном мире». 

Высокая цена ошибки

Использование синтетических данных для обучения моделей — распространенная практика. Почему погрешность, потенциально наблюдаемая в «реальном мире», так важна, модели ведь в принципе редко работают со 100%-ой точностью? Как минимум по той причине, что цена ошибки ИИ в военной сфере зачастую гораздо выше, чем в других направлениях. Это обуславливает высокие требования к качеству соответствующих разработок. 

По этой же причине использование ИИ в военной области предполагает особые требования к интерпретируемости, с чем модели могут испытывать проблемы. Часто можно слышать, что алгоритмы, подобные ИИ, — это «черные ящики», дающие результат, но скрывающие от нас принцип определения этого результата. В это же время в условиях высокой цены ошибки как раз обоснование выбора того или иного варианта становится принципиальным требованием к работе модели. 

Критические ошибки выражаются не только в невыполнении поставленных задач или военных неудачах. Они также могут конвертироваться в политическую плоскость — общественное недовольство властями, ответственными за инициирование внедрения «провальных» или «слабо контролируемых» технологий. 

Этические вопросы

Наконец, тема внедрения ИИ в военные разработки сталкивается с сохраняющим свои позиции трендом на «выравнивание» намерений ИИ и человека. 

Насколько этично использовать подобные технологии на военные нужды? Насколько это соотносится с общечеловеческими целями? Подобные вопросы потенциально обозначают две конфликтных линии: во-первых, общество и государство; во-вторых, технологические компании и государство. 

В первом случае, внедрение ИИ может быть воспринято негативно со стороны общественности. Это касается как отрицания этичности подобной тенденции, так и общего отношения к ИИ — особенно в такой высокорискованной области как военная. На данный момент можно заключить, что общество неоднозначно воспринимает использование подобных технологий — как показывают опросы и исследования, отношение к ИИ может варьироваться в зависимости от личностных характеристик и общественных установок. 

Во втором случае — конфликт компаний и государства, — власть потенциально сталкивается с противодействием со стороны компаний, непосредственно ответственных за разработку соответствующих инструментов. Например, в США крупные технологические компании берут на себя ответственность за контроль над безопасным и ответственным развитием ИИ. Насколько безопасна интеграция технологий в военные разработки и, соответственно, пойдут ли на это разработчики — вопрос дискуссионный. Если конфликт действительно имеет место быть, можно допустить, что его интенсивность будет зависеть от таких факторов как юридический контекст, экономическая модель или общая культура взаимодействия бизнеса и власти в стране.

Павел Иванов, аналитик Центра политической конъюнктуры

#ПавелИванов
© 2008 - 2024 Фонд «Центр политической конъюнктуры»
Сетевое издание «Актуальные комментарии». Свидетельство о регистрации средства массовой информации Эл № ФС77-58941 от 5 августа 2014 года, Свидетельство о регистрации средства массовой информации Эл № ФС77-82371 от 03 декабря 2021 года. Издается с сентября 2008 года. Информация об использовании материалов доступна в разделе "Об издании".