Статья
2175 28 апреля 2023 13:06

Разработка стандартов безопасности: роль G7 в регулировании ИИ

Страны G7 в рамках форума в Хиросиме 19-21 мая могут предоставить международному сообществу площадку для совместной разработки набора основополагающих концепций ИИ, говорится в докладе группы экспертов американского аналитического центра Center for Strategic and International Studies (CSIS). В частности, «Большая семерка» может помочь в улучшении координации разработки технических стандартов ИИ и принципах регулирования.

Ранее «Большая семерка» уже успешно обеспечивала многосторонний форум для сотрудничества в области управления технологиями, в том числе в области ИИ, говорится в докладе. «Группа выпустила стратегические документы, в которых изложены общие принципы и общее видение будущего ИИ, инициировала создание ориентированного на исследования Глобального партнерства в области ИИ и сыграла важную роль в разработке принципов ИИ Организацией экономического сотрудничества и развития. Действия „Большой семерки“ в отношении стандартов ИИ укрепят и придадут многосторонний характер работе других международных организаций для создания четкого и четко определенного соглашения об общих основополагающих стандартах ИИ», — отмечается в докладе.

«Группа семи» уже проводит согласование практики регулирования ИИ в рамках инициативы Data Free Flow with Trust (DFFT). «DFFT сыграл ключевую роль на последних трех саммитах G7 и заручился согласием G7 на расширение сотрудничества и оперативной совместимости по ключевым мерам управления данными. Япония первоначально представила DFFT на Всемирном экономическом форуме в 2019 году и с тех пор является чрезвычайно эффективным сторонником этого направления. „Большая семерка“ является идеальным форумом для обеспечения политической приверженности сотрудничеству в области разработки стандартов», — пишут авторы доклада. 

Обязательство G7 повлияет на повышение качества нового регулирования ИИ во всем мире. «Политики во всем мире работают над необходимым и неизбежным регулированием и руководством в области ИИ, которые поддерживают ответственные инновации и минимизируют потенциальные вредные последствия систем ИИ с помощью мер управления и мер безопасности. Например, Европейский союз разрабатывает свой закон об искусственном интеллекте, Национальный институт стандартов и технологий США опубликовал свою концепцию управления рисками ИИ в 2023 году, Великобритания недавно опубликовала первый проект своего подхода к регулированию ИИ», — говорится в докладе.

Среди компаний, внедряющих ИИ, 84% считают, что ответственный ИИ (RAI) является приоритетом высшего руководства, но только 24% сообщили, что их организация разработала зрелую программу RAI, сообщают авторы доклада. «Зрелые механизмы RAI снижают затраты и репутационные риски. Наличие программы RAI поможет фирмам выявлять пробелы в управлении ИИ и устранять сбои системы ИИ до того, как они усугубятся. Необходима работа по сбору существующих передовых методов управления ИИ для формирования зрелого и широко распространенного набора стандартов. Это может помочь снизить стоимость и сложность управления ИИ», — утверждают авторы доклада. По их словам, «не существует изначального компромисса между снижением рисков ИИ и ускорением внедрения».
© 2008 - 2024 Фонд «Центр политической конъюнктуры»
Сетевое издание «Актуальные комментарии». Свидетельство о регистрации средства массовой информации Эл № ФС77-58941 от 5 августа 2014 года, Свидетельство о регистрации средства массовой информации Эл № ФС77-82371 от 03 декабря 2021 года. Издается с сентября 2008 года. Информация об использовании материалов доступна в разделе "Об издании".