Статья
2362 16 июня 2023 14:25

Автономное оружие: риски распространения ИИ

В мире создается все больше автономного оружия, которое представляет особую опасность, однако международные переговоры о контроле над такими вооружениями вряд ли могут состояться в ближайшее время, считает эксперт американского аналитического центра Council on Foreign Relations Cебастьян Маллаби. В качестве еще одного риска повсеместного применения ИИ Маллаби называет автоматизацию труда, которая может привести к тому, что даже людям, сохранившим свои должности, не хватит средств на минимальные потребности.

Модели, ориентированные на исследования, находят применение в анализе огромных наборов данных, которые человек никогда не сможет усвоить, отметил старший научный сотрудник CFR по международной экономике в совете Себастьян Маллаби. «Таким образом, искусственный интеллект ускорит научные открытия. Одним из прорывов в области ИИ стало создание системы управления плазмой внутри термоядерного реактора. Ядерный синтез все еще остается отдаленной возможностью, но такой, которая могла бы обеспечить мир практически неограниченной чистой энергией», — отметил специалист.

Системы ИИ можно разделить на три типа. По словам Маллаби, на самом простом уровне существует так называемый «реактивный ИИ», который используется в таких продуктах, как видеоигры или автозаполнение текста. «Он относительно прост и предсказуем и не требует большой подготовки человека. Он всегда будет давать одни и те же результаты в ответ на одни и те же входные данные. Далее следует ИИ с узкой или „ограниченной памятью“ — этот тип способен учиться самостоятельно, просматривая массивы данных и сохраняя их для решения будущих проблем. Большинство передовых продуктов искусственного интеллекта, которые мы видим в наши дни, таких как ChatGPT, относятся к этой категории. Они могут отвечать на вопросы, проводить невероятные исследования, но они пока не могут самостоятельно планировать свои действия для достижения цели. Наконец, третий тип — мощный ИИ, также известный как искусственный общий интеллект, которого пока не существует. Этот тип ИИ не создавался бы для какого-то одного приложения, а вместо этого мог бы исследовать проблемы всех видов. Он был бы адаптируемым, как человек, но со сверхчеловеческими способностями, и он мог бы преследовать свои цели без посторонней помощи», — отметил эксперт.

Новые отчеты американских компаний показывают, что ИИ заменил почти 4000 работников только в прошлом месяце. Согласно опросу компании AI Impacts, которая изучает экзистенциальные риски, связанные с ИИ, более половины экспертов считают, что ИИ сможет выполнять все задачи лучше и дешевле, чем люди, к 2061 году. «Эти люди будут искать должности, которые не были компьютеризированы, в результате конкуренция приведет к снижению заработной платы. И нам, возможно, придется обдумать такие идеи, как всеобщий базовый доход, которые ранее были на периферии экономических дебатов, но, я думаю, теперь станут центральными», — отметил эксперт.

Еще один риск — попадание ИИ в руки недоброжелателей. «Это может быть что угодно: от создания дипфейков для манипулирования выборами или просто общественным мнением до взлома банковских счетов людей в Интернете или даже для совершения кражи. Представьте, что ваша входная дверь заперта, но она подключена к домашней системе управления, и ИИ может взломать электронный замок», — предупредил эксперт. 

Страны сталкиваются с геополитической проблемой, связанной с ИИ — оружием, которое может думать. «Автономное оружие не должно принимать автономные решения. Другими словами, прежде чем беспилотник действительно запустит оружие, должен быть человек, нажимающий на кнопку. Реалистично ли это, учитывая скорость, с которой будет вестись предполагаемая война, управляемая искусственным интеллектом? Мы далеки даже от начала переговоров по контролю над вооружениями по этому вопросу. И в нынешнем геополитическом климате, может ли сработать какой-либо контроль над вооружениями?» — такой риторический вопрос задал Маллаби.
© 2008 - 2024 Фонд «Центр политической конъюнктуры»
Сетевое издание «Актуальные комментарии». Свидетельство о регистрации средства массовой информации Эл № ФС77-58941 от 5 августа 2014 года, Свидетельство о регистрации средства массовой информации Эл № ФС77-82371 от 03 декабря 2021 года. Издается с сентября 2008 года. Информация об использовании материалов доступна в разделе "Об издании".