Статья
2917 8 августа 2023 11:56

ИИ-контроль: роль государства

Начало 2023 года ознаменовало «бум» генеративных нейронных сетей — большие языковые и text2image модели проявили себя как эффективные инструменты для решения широкого ряда задач. 

За ростом массового внимания к Искусственному Интеллекту (ИИ) последовал новый тренд — AI Alignment, или проблема согласованности ИИ с целями и ценностями общества. Ученые не только обратили внимание на угрозу безработицы и социального неравенства, но и на потенциал языковых моделей для генерирования дезинформации и даже создания биологического оружия. Работа над предотвращением потенциально деструктивного влияния нейронных сетей стала не менее важным процессом, чем совершенствование функционала моделей.

В контексте осуществления контроля, одним из самых влиятельных акторов остается власть. Именно на роли государства и надгосударственных структур фокусируются многочисленные доклады «фабрик мысли», посвященные проблеме AI Alignment.

История

Еще в апреле 2021 года, комиссия Европейского Союза (ЕС) опубликовал проект AI Act — документа, регулирующего использование ИИ. Главный недостаток документа — фокус комиссии на моделях с точно определенной вредоносной целью. Современные разработки, наподобие ChatGPT, бросают вызов этой концепции, представляя собой «базисные модели» (foundation models) — они созданы для решения широкого ряда задач, и деструктивное влияние может быть не намеренным, а «побочным» эффектом. 

Эксперты брюссельской «фабрики мысли» Bruegel приводят в пример такие примеры вреда современных языковых моделей, как дезинформация, оскорбление меньшинств, трансляция различных видов предрассудков и стереотипов, нарушение авторского права, рост безработицы в ряде секторов, повышенное потребление энергии. 

Bruegel: «ЕС, вероятно, станет крупным поставщиком генеративного ИИ»

На данном этапе Европейский парламент уже предложил несколько нововведений в AI Act: например, обязывать создателей ИИ регулярно оценивать потенциальные риски их разработок, подготавливать подробную документацию с нормативными требованиями использования модели. 

Brugel также предлагает ЕС ряд поправок в документ:
  • Следует различать крупных производителей ИИ (Google, OpenAI, Anthropic) и небольшие компании — первые имеют широкую аудиторию и необходимые ресурсы для компенсации потенциального ущерба. Именно на них должен ложиться основной пласт обязательств (например, инвестиции в безопасность разработок) по обеспечению AI Alignment.
  • Необходимо регулировать выплату «роялти» за использование чужой интеллектуальной собственности в ответах ИИ
  • Важно закреплять международные технические стандарты функционирования моделей
  • Требуется организация надзора «третьей стороны» (экспертного сообщества) за работой компаний.

Участие ЕС в разработке подобного регуляторного механизма потенциально делает союз «главным игроком» на этом рынке и позволяет обеспечить развитие технологии в соответствии с ценностями ЕС.

Carnegie Endowment: «Национальный реестр крупных моделей ИИ»

Американская «фабрика мысли» Carnegie Endowment for International Peace (CEIP) призывает национальные правительства принять участие в контроле над ИИ. 

Эксперты «фабрики» критикуют AI Act, презентованный ЕС, за требование к производителям публиковать информацию о моделях в публичных базах данных. В условиях рыночной конкуренции, это может быть серьезной проблемой для компаний. Вместо этого, государства должны создавать собственный реестр с ограниченным доступом, для которого производители ИИ будут обязаны поставлять информацию о своих разработках.

Компании, впрочем, не обязаны находится под полным контролем власти. Их задача — предоставлять государству сведения о размере их моделей, методах тренировки, описание тренировочных данных и границ применения их разработок. Отказ компаний от сотрудничества или нарушение правил влечет за собой отсутствие регистрации и, соответственно, запрет на «развертывание» моделей. 

Регистрация моделей ИИ схожа с необходимостью лицензирования больниц для приема пациентов, страховых компаний для предоставления страховки, юристов для оказания юридических услуг. 

RAND: «Обучение пользователя — ключевой аспект» 

Министерство обороны США имеет подразделение, ответственное за адаптацию современных data-driven решений для решения государственных задач — Chief Digital and Artificial Intelligence Office, или CDAO. По утверждению RAND, данные, аналитика и ИИ, помогают министерству принимать решения как на внутренних заседаниях, так и на поле боя. 

Согласно главе CDAO, подразделение не создает новые разработки, а адаптирует существующие под национальные нужны. Она также признает, что современный ИИ несёт за собой ряд рисков и проблем — например, «галлюцинации», ложные и, вероятно, вредоносные рекомендации. 

Тем не менее в контексте решения существующих проблем глава CDAO акцентирует внимание не на работе непосредственно с моделями или разработчиками, а на работе с пользователями: «Обучение пользователя — ключевой аспект». По её утверждению, все системы, «разворачиваемые» со стороны CDAO, сопровождаются информацией о том, как и в каких условиях их нужно использовать. 

Кто будет контролировать ИИ (и будет ли)?

Несмотря на различные точки зрения относительно будущего и потенциала ИИ, все «фабрики мысли» сходятся на необходимости контроля над моделями и их использованием в той или иной степени. Сегодня столкновение трендов на развитие функционала моделей и обеспечение соответствия их работы с общественными ценностями — актуальная проблема на стыке политики и ИИ как науки.

Тем не менее будущая степень контроля и определение акторов, ответственных за это, — дискуссионный вопрос. Наиболее вероятными представляются три сценария развития событий:

  • Полное отсутствие контроля над ИИ.

    Несмотря на призывы «фабрик» к регулированию этой сферы, некоторые группы не признают существование угрозы со стороны генеративных моделей. 

    Центр Information Technology & Innovation Foundation, например, утверждает, что страхи «алармистов» преувеличены и практическим безосновательны. Похожий тезис упоминают эксперты CEIP — «Silicon Valley hype» просто отвлекает внимание общественности от настоящих проблем, наподобие социальной несправедливости и неравенства. 

    Потенциал ИИ для решения ряда задач действительно большой, однако общественная угроза с его стороны — пока лишь гипотетическая. 

    Главный контраргумент относительно этой позиции — об опасности развитого ИИ говорят не только сторонние наблюдатели, но и СЕО технологических компаний, ответственных за разработку моделей (например, глава OpenAI Сэм Альтман).

  • Контроль над ИИ со стороны государств или надгосударственных структур — но не в консолидированном виде.

    Главы государств вне зависимости от политической системы страны сходятся на необходимости регулирования ИИ. Впрочем, проблема контроля в данном контексте — отсутствие общих целей.

    Коммунистическая Партия Китая, например, заинтересована в ограничении деятельности чатботов, которые не сонастроены с политическим курсом партии. Великобритания стремится занять место ключевого игрока в сфере контроля над ИИ, чтобы актуализировать свою роль на международной арене после выхода из ЕС. 

    Проблема усугубляется, во-первых, асимметрией информации — элиты не имеют точного представления о возможностях разрабатываемых технологических решений. Во-вторых, ИИ — это относительно новый феномен, и государства не имеют работающих инструментов для его контроля. Несмотря на заявления стран, конкретных и эффективных шагов в сторону регулирования этой сферы на сегодняшний день предпринято не было. Разработка эффективного механизма — это вопрос долгого времени, а единственное доступное на сегодня решение — это формулирование стандартов и рекомендаций.

  • Ответственность за регулирование возьмут сами компании. 

    В конце июля, крупнейшие корпорации в сфере ИИ OpenAI, Anthropic, Google и Microsoft организовали Frontier Model Forum (FMF), орган, контролирующий безопасное и ответственное развитие передовых моделей. Задача FMF — развитие стандартов, критериев оценки безопасности, публикация наилучших решений в этом направлении. 

    Именно контроль со стороны технологических компаний, хоть и условный, выглядит наиболее вероятной перспективой. Во-первых, это решает проблему асимметрии информации — производители знают больше о своих разработках, чем государства. Во-вторых, объединение сразу нескольких корпораций «под эгидой» AI Alignment — признак консолидации задействованных акторов, в отличие от правительственных амбиций. В-третьих, несмотря на то, что FMF объединяет только создателей передовых моделей (небольшие компании фактически исключены из повестки), это обстоятельство способствует эффективному контролю над рынком — именно передовые модели потенциально представляют наибольшую угрозу. 

Все три сценария являются равновероятными, и выбор сценария во многом будет зависеть от национальных особенностей той или иной страны, так как на данный момент создание наднационального регулятора не представляется возможным.

Павел Иванов, аналитик Центра политической конъюнктуры
© 2008 - 2024 Фонд «Центр политической конъюнктуры»
Сетевое издание «Актуальные комментарии». Свидетельство о регистрации средства массовой информации Эл № ФС77-58941 от 5 августа 2014 года, Свидетельство о регистрации средства массовой информации Эл № ФС77-82371 от 03 декабря 2021 года. Издается с сентября 2008 года. Информация об использовании материалов доступна в разделе "Об издании".