Статья
2332
18 марта 2024 11:00
Высокотехнологичная милитаризация
Технологии ИИ уже широко применяются в сфере образования, здравоохранения, совершенствования привычных цифровых сервисов и других отраслях. Впрочем, использование ИИ не ограничивается созидательными направлениями.Сигналы о внедрении соответствующих технологий в военной сфере только за последние 2 месяца были зафиксированы сразу в нескольких странах: России, США, Великобритании и Франции. На фоне роста внимания государств к потенциалу подобных разработок, можно с уверенностью говорить о приближающейся милитаризации ИИ. Тем не менее данный тренд, вероятно, будет сопровожден рядом рисков и проблем: как технических, так и политических.
Недостаток данных
Любая модель, которой можно приписать свойства ИИ, функционирует вследствие предварительного обучения на определенных данных. Запомнив некоторые закономерности, она впоследствии находит или реализует их в реальном мире, на новых данных.
В чем ограничение военных разработок? Подобная область требует в большинстве случаев крайне специфические данные. Можно допустить существование широкого спектра направлений в военной области, в которых был бы применим ИИ. Тем не менее многие из них характеризуются одной особенностью — ИИ должно учиться ориентироваться в боевых условиях.
Данный факт предполагает 2 ограничения: во-первых, боевые условия обусловлены большим, практически неконтролируемым, набором вводных, а следовательно, их затруднительно формализовать; во-вторых, боевые условия едва ли можно воспроизводить с высокой точностью.
Профессора из Шведского агентства оборонных исследований отмечают, что нехватка данных для обучения может восполняться их симуляцией. Впрочем, замечают сами авторы идеи, велика вероятность того, что модели, обученные на синтетических данных, будут хуже работать в «реальном мире».
Высокая цена ошибки
Использование синтетических данных для обучения моделей — распространенная практика. Почему погрешность, потенциально наблюдаемая в «реальном мире», так важна, модели ведь в принципе редко работают со 100%-ой точностью? Как минимум по той причине, что цена ошибки ИИ в военной сфере зачастую гораздо выше, чем в других направлениях. Это обуславливает высокие требования к качеству соответствующих разработок.
По этой же причине использование ИИ в военной области предполагает особые требования к интерпретируемости, с чем модели могут испытывать проблемы. Часто можно слышать, что алгоритмы, подобные ИИ, — это «черные ящики», дающие результат, но скрывающие от нас принцип определения этого результата. В это же время в условиях высокой цены ошибки как раз обоснование выбора того или иного варианта становится принципиальным требованием к работе модели.
Критические ошибки выражаются не только в невыполнении поставленных задач или военных неудачах. Они также могут конвертироваться в политическую плоскость — общественное недовольство властями, ответственными за инициирование внедрения «провальных» или «слабо контролируемых» технологий.
Этические вопросы
Наконец, тема внедрения ИИ в военные разработки сталкивается с сохраняющим свои позиции трендом на «выравнивание» намерений ИИ и человека.
Насколько этично использовать подобные технологии на военные нужды? Насколько это соотносится с общечеловеческими целями? Подобные вопросы потенциально обозначают две конфликтных линии: во-первых, общество и государство; во-вторых, технологические компании и государство.
В первом случае, внедрение ИИ может быть воспринято негативно со стороны общественности. Это касается как отрицания этичности подобной тенденции, так и общего отношения к ИИ — особенно в такой высокорискованной области как военная. На данный момент можно заключить, что общество неоднозначно воспринимает использование подобных технологий — как показывают опросы и исследования, отношение к ИИ может варьироваться в зависимости от личностных характеристик и общественных установок.
Во втором случае — конфликт компаний и государства, — власть потенциально сталкивается с противодействием со стороны компаний, непосредственно ответственных за разработку соответствующих инструментов. Например, в США крупные технологические компании берут на себя ответственность за контроль над безопасным и ответственным развитием ИИ. Насколько безопасна интеграция технологий в военные разработки и, соответственно, пойдут ли на это разработчики — вопрос дискуссионный. Если конфликт действительно имеет место быть, можно допустить, что его интенсивность будет зависеть от таких факторов как юридический контекст, экономическая модель или общая культура взаимодействия бизнеса и власти в стране.
Павел Иванов, аналитик Центра политической конъюнктуры
#ПавелИванов
8 апреля 2024
Колонки
ИИ-тократия
Ярослав Барыкин о перспективах использования
искусственного интеллекта в политике
26 марта 2024
Колонки
Машина заменит чиновника
Павел Иванов об отношении граждан к использованию
ИИ в государственно секторе
1 марта 2024
Новости
ИИ в период предвыборных кампаний: как изменятся избирательные процессы
Искусственный интеллект вряд ли радикально
изменит выборы в 2024 году, считают эксперты британского аналитического центра Royal United Services Institute (RUSI). Однако, по их словам, для того, чтобы выгоды использования ИИ перевесили риски, «необходимо придерживаться целостного подхода, который повышает доверие к демократическим институтам и процессам».