Статья
2001 22 декабря 2020 9:48

Ядерным оружием будет управлять искусственный интеллект: угрожает ли это человечеству

В последнее время в СМИ активизировались дискуссии о внедрении искусственного интеллекта (ИИ) в сферу ядерных разработок, однако интеграция ИИ в этой области имеет определенные риски и может повлиять на стратегическую стабильность. Научный сотрудник программы международной безопасности американского Центра стратегических и международных исследований Линдси Шеппард проанализировала риски внедрения ИИ в такие сферы как разведывательная деятельность, безопасность, оборона и оптимизация данных.

Успехи машинного обучения в последние годы объясняются тенденциями к увеличению объемов данных, наличием относительно недорогой вычислительной мощности и миниатюризацией электронных компонентов для компьютеров. Однако, независимо от области применения, системы ИИ далеко не надежны и имеют свои уязвимости. Безопасность машинного обучения — недавно зародившаяся область исследований, где злоумышленники в обозримом будущем могут получить преимущество.

Нынешний всплеск исследований и разработок напоминает предыдущие циклы в области ИИ. В литературе по ИИ часто упоминаются периоды значительного спада в исследованиях, финансировании и общих ожиданиях после периодов значительного ажиотажа и перспектив. Первый такой период пришелся на 1960-970-е годы, второй — на конец 1980-х — начало 1990-х годов после появления перспективных экспертных систем — подхода, основанного на попытках реализовать в компьютерах знания специалистов по решению проблем в конкретной области. Уязвимость этих систем заключается в том, что они не могут определить, находится ли проблема, которую они пытаются решить, в пределах их области знаний. Те, кто намерен внедрять искусственный интеллект и машинное обучение, должны найти баланс между потенциалом и ограничениями современных технологий.

Шеппард отмечает, что сфера ядерных разработок известна своим консервативным подходом к интеграции новых технологий, и выделяет области применения ИИ в рамках ядерной миссии, которые требуют комплексного подхода: безопасность и оборона, разведывательная деятельность и указания и предупреждения, моделирование, оптимизация и анализ данных.

Ядерное предприятие должно обезопасить и защитить свои объекты и оружие от кибернетических и физических вторжений при помощи непрерывного мониторинга и оценки физических рисков или рисков кибербезопасности. Существующие приложения ИИ основаны на оптико-электронных системах или системах видеонаблюдения для обнаружения путем автоматической идентификации. Также они используют машинное обучение для обнаружения и классификации вредоносных программ, мониторинга активности пользователей, автоматическое реагирования на инциденты и смягчение последствий атак. Однако систему компьютерного зрения, например, можно ввести в заблуждение при помощи очков, нашивок или футболок, которые приводят к ошибкам в классификации людей, носящих их.
  
Еще одним примером потенциального использования ИИ и машинного обучения является нацеливание на ядерные ресурсы противника. Такие страны, как Россия, Китай и Корейская Народно-Демократическая Республика (КНДР) инвестируют в наземно-мобильные ядерные средства, что усложняет стратегии контрсилового нападения. Обладание железнодорожными или передвижными ядерными силами может повысить их устойчивость, ограничивая способность противника обнаруживать их. Аналитики разведки могут использовать ИИ при обработке данных, необходимых для выявления закономерностей движения, состояния предупреждений и графиков технического обслуживания.

Лица, контролирующие сферу ядерных разработок, должны быть готовы оценить преимущества и риски включения машинного обучения в систему безопасности, а решение о внедрении ИИ должно приниматься с пониманием того, что новые технологии могут привнести в системы уязвимые места.
28 ноября 2023 Колонки
Итоги AI Journey
 Итоги AI Journey Павел Иванов о конференции AI Journey
26 мая 2023 Главное
Регулирование ИИ: обзор западных инициатив
 Регулирование ИИ: обзор западных инициатив Проблемы международного регулирования систем искусственного интеллекта активно обсуждаются в экспертном сообществе. Американские аналитики предупреждают, что «простых ответов о регулировании ИИ нет», однако существует ряд международных форумов, на которых обсуждается сотрудничество в области международного управления ИИ и которые могли бы стать...
17 мая 2023 Главное
Шесть неудобных вопросов о развитии ИИ
 Шесть неудобных вопросов о развитии ИИ Технологии искусственного интеллекта уже сейчас внедряются в самых разных отраслях: от сферы услуг и образования, до медицины и оборонной промышленности. Директор Центра искусственного интеллекта и передовых технологий Вадхвани Грегори Аллен на страницах Центра стратегических и международных исследований (CSIS) рассуждает о том, на какие вопросы должны отвечать инициаторы внедрения ИИ в оборонной сфере. 
© 2008 - 2024 Фонд «Центр политической конъюнктуры»
Сетевое издание «Актуальные комментарии». Свидетельство о регистрации средства массовой информации Эл № ФС77-58941 от 5 августа 2014 года, Свидетельство о регистрации средства массовой информации Эл № ФС77-82371 от 03 декабря 2021 года. Издается с сентября 2008 года. Информация об использовании материалов доступна в разделе "Об издании".