В последние годы искусственный интеллект (ИИ) стал одной из ключевых движущих сил технологического прогресса, однако его стремительное развитие породило ряд серьезных вызовов. Внедрение ИИ в повседневную жизнь — от алгоритмов, которые оценивают успеваемость студентов, до систем кредитования — обострило проблему социальной справедливости и ответственности. Ошибки алгоритмов уже привели к реальным негативным последствиям, включая дискриминацию и снижение доверия общества к новым технологиям. Таким примером, характерным для Китая, можно назвать форму алгоритмической дискриминации, так называемое убийство больших данных (大数据杀熟) [1], [2], при котором цены для существующих клиентов на онлайн-платформах выше, чем для новых. Более того, растущие вычислительные и алгоритмические возможности технологий ИИ позволили создавать приложения для подмены лиц. И то, что казалось забавным развлечением, вылилось в серьезные опасения по поводу конфиденциальности, поскольку приложение реализовало функцию распознавания лиц пользователей для создания изображений без их согласия. Знаменитости и другие деятели также стали жертвами многочисленных кампаний deepfake, которые вызвали публичный скандал и широкую дискуссию в китайском обществе о потенциале этих технологий дестабилизировать политический порядок или распространять дезинформацию. То, что инциденты с ИИ резко возросли с появлением генеративного ИИ, к которым как раз и относятся подобные приложения, генерирующие «фальшивые» изображения на основе собранных изображений реальных людей, подтверждает и статистика ОЭСР, собираемая Монитором инцидентов с ИИ (AIM) на основе сообщений в авторитетных международных СМИ. В период с 2022 по 2023 гг. количество зарегистрированных инцидентов с ИИ увеличилось примерно на 1278%, что совпало с распространением генеративного ИИ.
Все более широкое использование ИИ как в электронном здравоохранении, так и для предоставления госуслуг или обеспечения принятия решения системами государственной власти поднимает вопросы ответственности и регулирования на первый план.
Стремление минимизировать риски, связанные с ИИ, заставило государства активизировать разработку законодательных и нормативных актов. С 2017 г. свыше 60 стран, включая Россию и Китай, приняли меры по регулированию ИИ, что стало отражением глобального стремления контролировать эту сферу. Такие действия вызваны не только локальными потребностями, но и сложностью координации на международном уровне. Алгоритмы ИИ, используемые в облачных системах или федеративном обучении, часто опираются на данные и инфраструктуру из разных стран, что затрудняет установление единых правил.
Эффективное регулирование ИИ необходимо для защиты общественных интересов, предотвращения ошибок и минимизации рисков. Вместе с тем оно должно стимулировать технологическое развитие и укреплять международное сотрудничество. Гармонизированное регулирование могло бы способствовать улучшению контроля за инновациями, продвижению этичных стандартов и решению общих глобальных проблем, но оно пока остается не достижимым в широком смысле. Имеются лишь фрагментарные попытки по сферам применения (Рекомендация ЮНЕСКО об этике искусственного интеллекта) или вовлеченным участникам (The Global Partnership on Artificial Intelligence, GPAI).
Каждая страна разрабатывает собственный подход, учитывая национальные приоритеты и международную конкуренцию. Например, Китай делает акцент на усилении контроля над данными и этике использования ИИ, одновременно стремясь занять лидирующие позиции в глобальной технологической гонке.
Развитие ИИ в Китае
Становление Китая в качестве цифровой высокотехнологичной державы было обозначено как одно из направлений государственного развития. Ключевым стало намерение правительства установить собственные правила в киберпространстве и использовать возможности цифровых технологий для достижения экономических и социальных целей. Политики в Китае уже некоторое время рассматривали технологию ИИ как критически важную для будущего развития инноваций, интеллектуальных промышленных систем и цифровой жизни, что нашло отражение в соответствующих стратегических документах. Как отмечается многими авторами, которые описывают основные шаги Китая в формировании общей стратегии промышленного и технологического развития, стартовой точкой можно считать национальную стратегию «Сделано в Китае — 2025», опубликованную в 2015 г. Госсоветом КНР, предлагавшую в том числе и модернизацию производства для достижения высокого уровня автоматизации. Для сравнения, в США подобный план был принят в 2013 г. (Robot Plan), а в ЕС — в 2009 г. (Future and Emerging Technologies).
Последующим шагом для стимулирования развития отрасли ИИ стало принятие таких документов, как «План действий по содействию развитию больших данных» (2015) и «План развития искусственного интеллекта следующего поколения» (2017). В Плане развития ИИ были обозначены поэтапные цели развития ИИ с отсечками по каждому этапу в 2020, 2025 и 2030 гг. соответственно.
Первый этап продолжался с 2017 по 2020 гг., согласно которому технологии создания искусственного интеллекта должны были быть синхронизированы с мировым уровнем. Индустрия искусственного интеллекта должна была стать новой важной точкой экономического роста, а применение технологий искусственного интеллекта новым способом улучшить условия жизни граждан. В качестве приоритетных направлений развития были обозначены: большие данные, автономные интеллектуальные системы, роевой интеллект [3], гибридный расширенный интеллект, разработка основополагающих теорий ИИ. Давались экспертные оценки доходов отрасли до 150 млрд юаней (около 20,7 млрд долл., с учетом смежных отраслей ― 1 трлн юаней (около 138 млрд долл.).
На втором этапе к 2025 г. должны быть осуществлены значительные прорывы в базовой теории искусственного интеллекта, а некоторые технологии и приложения достигнуть мирового уровня. Искусственный интеллект станет основной движущей силой промышленной модернизации и экономических преобразований Китая. Запланировано, что к этому времени индустрия ИИ войдет в глобальную цепочку создания стоимости, будут разработаны и приняты законы, нормативные акты, нормы этики, политики и права в области ИИ, а также сформированы критерии оценки и контроля безопасности ИИ-технологий. В качестве приоритетных направлений развития обозначены: интеллектуальное производство, интеллектуальная медицина, интеллектуальный город, интеллектуальное сельское хозяйство, национальная оборона, нормативное регулирование сферы ИИ, системы оценки и контроля безопасности ИИ. Оценивается, что основная отрасль ИИ принесет около 400 млрд юаней (около 55,2 млрд долларов США), а с учетом смежных отраслей — 5 трлн юаней (около 690 млрд долларов США).
На третьем этапе к 2030 г. конкурентоспособность индустрии искусственного интеллекта должна достигнуть лидирующего положения на международном уровне. Широта и глубина применения искусственного интеллекта во всех аспектах производства и жизни, социального управления и строительства национальной обороны будут значительно увеличены, образуя полную промышленную цепочку и высокотехнологичный промышленный кластер, охватывающий основные технологии, ключевые системы, платформы поддержки и интеллектуальные приложения, включая социальное управление и национальную оборону. На этом этапе отрасль должна выйти на доход 1 трлн юаней (около 138 млрд долл.), а с учетом смежных отраслей — 10 трлн юаней (около 1,38 трлн долл.).
Этапы развития регулирования ИИ в Кита
Стратегическое преобразование отрасли ИИ определило три отдельных этапа развития, каждый из которых представлял разный баланс интересов и подходов к проблеме. Изначально Китай отдавал приоритет саморегулированию отрасли, а ключевые плановые документы пропагандировали необходимость для промышленности инвестировать в технологии и использовать рыночные возможности. С укреплением режима кибербезопасности в Китае политики перешли к выпуску национальных стандартов для поощрения участия промышленности и создания основы для будущих правил. В последние годы китайские регуляторы обнародовали конкретные правила, нацеленные на определенные отрасли и технологии. Ожидается, что эта тенденция продолжится с созданием закона об ИИ в ближайшем будущем.
Этап I: Стратегическое планирование и самодисциплина отрасли (2017–2020 гг.)
По крайней мере с 2017 г. китайское правительство сделало управление ИИ приоритетом и в настоящее время явно использует этот термин в своих многочисленных плановых документах и нормативных актах.
Как и многие страны, Китай изначально занимал позицию «выжидающего» в отношении управления ИИ и предпочел рассматривать проблему через призму использования стратегических возможностей и развития конкурентоспособной на мировом уровне отрасли. В то время, когда стали проявляться внутренние и международные риски соответствия [4], началось создание фундамента, на котором китайская отрасль ИИ могла бы развиваться без строгих регуляторных барьеров, что обеспечивало максимальный простор развития новой отрасли для создания конкуренции и лишь в последствии увеличивая зарегулирование. Стратегическими решениями на первом этапе стали, как уже упомянутые планы (План развития ИИ 2017 и План развития больших данных 2015), так и другие стратегические документы, разработанные «сверху вниз»: 13-й пятилетний план (экономического и социального развития Китайской Народной Республики (2016–2020) и «Белая книга о больших данных» (2019), выпущенная Китайской академией информационных и коммуникационных технологий. Эти шаги начали закладывать основу для будущего регулирования.
Интересно, что китайские регулирующие органы в этот период не издавали никаких обязательных правил, специально нацеленных на технологии ИИ. Из-за отсутствия регулирования несколько организаций (в основном интернет-компании) создали собственные внутренние системы управления ИИ. Они также сотрудничали с другими отраслевыми организациями Китая для разработки рамок саморегулирования и продвижения руководящих принципов для отрасли. Например, в 2019 г. Ассоциация индустрии ИИ Шэньчжэня запустила Конвенцию о саморегулировании индустрии ИИ нового поколения.
Этап II: Добровольные стандарты и начало нормативного надзора (2020–2022 гг.)
После нескольких лет неконтролируемой разработки технологий и решений ИИ китайские власти активизировали свои усилия по формулированию отраслевых стандартов для охвата алгоритмических технологий и приложений машинного обучения. Эти национальные стандарты, которые отражали передовой опыт отрасли и не являлись обязательными, открыли новый этап регулирования ИИ, переориентировав роль государственных организаций на технологии. На этом этапе возросла роль прямого участия правительства в управлении ИИ, но было мало конкретных нормативных обязательств. Другими словами, в Китае по-прежнему не было комплексной правовой архитектуры, с помощью которой государственные органы могли бы осуществлять прямой надзор и принуждение.
В августе 2020 г. ключевые административные органы, включая Администрацию киберпространства Китая (The Cyberspace Administration of China, CAC) и Министерство промышленности и информационных технологий Китая (The Ministry of Industry and Information Technology of the People’s Republic of China, MIIT) совместно выпустили «Руководство по построению Национальной системы стандартов ИИ нового поколения», в котором изложены восемь структурных аспектов системы стандартов ИИ. Они включают в себя базовые компоненты других промышленных регламентов, такие как программные и аппаратные платформы, ключевые технологии и промышленные приложения, а также нормативные принципы, такие как безопасность и этика ИИ. Целью данного руководства была подготовка технических комитетов к получению знаний из первых рук о том, как работают технологии ИИ, и выпуску отраслевых стандартов «снизу-вверх».
Действительно, техническая стандартизация в Китае часто отражает экспериментальный подход к регулированию, когда должностные лица работают напрямую с отраслевыми и академическими экспертами для подготовки рекомендаций по будущей реализации правил.
Отсутствие прямого регулирующего надзора на данном этапе можно частично объяснить приоритетом китайских законодателей завершить и обновить ключевые законы Китая о защите данных, включая « Закон о защите личной информации 2021 года (PIPL)» и «Закон о безопасности данных 2021 года (DSL)» в качестве дополнения к «Закону о кибербезопасности 2016 года». Регуляторы уже некоторое время осознавали необходимость непосредственного решения некоторых известных и задокументированных рисков ИИ, но подходили к борьбе с ними через более масштабный режим управления данными в Китае, который только начинал формироваться.
Этап III: Прямой надзор за технологиями ИИ (с 2022 г. по настоящее время)
За последние несколько лет CAC в течение короткого времени обнародовал обязательные правила, связанные с конкретными технологиями, которые кардинально изменили ландшафт управления ИИ в Китае. Вот наиболее важные из них.
- Регламент по управлению алгоритмическими рекомендациями в информационных сервисах в Интернете 2021 г., вступивший в силу с 1 марта 2022 г. Цель этого документа — предотвратить монопольное поведение платформ искусственного интеллекта. Регламент требует особой осторожности для удовлетворения потребностей пожилых пользователей (в том числе для предотвращения мошенничества) и запрещает алгоритмическое создание фейковых новостей, использование дискриминационных или предвзятых пользовательских тегов в алгоритмических рекомендательных системах, а также использование алгоритмов для участия в монополистических действиях или неправомерной конкуренции.
- Положение об администрировании информационных интернет-сервисов глубокого синтеза информации в Интернете 2022 г. Документ, вступивший в силу 10 января 2023 г., устанавливает требования к предоставлению услуг глубокого синтеза для создания изображений, видео, аудио и текста. Создаваемый контент должен соответствовать правилам контроля информации, маркироваться как искусственно созданный, а его провайдеры обязаны принимать меры по предотвращению неправомерного использования и регистрировать свои алгоритмы (запрещается публикация контента, созданного искусственным интеллектом, без специальной маркировки).
- Меры по управлению генеративными службами искусственного интеллекта 2023 г. Данный нормативный акт, вступивший в силу 15 августа 2023 г., определяет, что поставщики услуг генеративного ИИ, влияющего на общественное мнение или способного к «социальной мобилизации», должны проводить оценку безопасности, соблюдать законы, нормы общественной морали и этику, а также избегать манипулирования информацией и общественным мнением. Провайдеры должны выполнять обязательства по соблюдению конфиденциальности в отношении информации, вводимой пользователями. Права интеллектуальной собственности должны быть защищены, а преимущества, добываемые с помощью ИИ, не должны использоваться для монополии или недобросовестной конкуренции.
Один из важных аспектов этого этапа — индивидуальный подход китайских регуляторов к технологиям ИИ. Каждое из действующих в настоящее время правил имеет более узкую сферу применения, чем другие законы, которые регулируют компании и поставщиков технологий в целом. Например, Положения об алгоритмах рекомендаций 2021 года применяются узко к сервисам, которые продвигают и заказывают контент или дают рекомендации пользователям с помощью алгоритмов, в то время как Меры генеративного ИИ 2023 года нацелены на сервисы, которые могут автоматически создавать текстовый вывод, подобный человеческому. Кроме того, поскольку Китай постепенно совершенствует свои инструменты регулирования ИИ, в настоящее время агентства и организации, которые играли важную роль во втором этапе, начали формулировать стандарты для содействия внедрению мер генеративного ИИ 2023 года.
В августе 2023 г. регулятор Интернета страны (MIIT) объявил об ограничении использования технологии распознавания лиц при наличии подходящих альтернатив для проверки личности.
В конце ноября 2023 г. Пекинский суд вынес решение по делу об авторских правах на использование изображений, сгенерированных искусственным интеллектом. Юридический прецедент возник в результате иска о нарушении прав интеллектуальной собственности, инициированного в мае 2023 г. истцом по имени Ли, который использовал программу Stable Diffusion американского стартапа StabilityAI для создания изображения. Его разместили на китайской платформе социальных сетей Xiaohongshu. Ли обвинил блоггера Лю в использовании без разрешения изображения, созданного искусственным интеллектом, на платформе обмена контентом Baijiahao. Суд вынес решение в пользу Ли, посчитав изображение, созданное ИИ, произведением искусства. Решение основано на постоянном человеческом вкладе в подсказки и корректировке параметров, что отражает «эстетический выбор и индивидуальное суждение». Согласно решению, изображение отвечало требованиям «оригинальности» и отражало оригинальные интеллектуальные инвестиции человека, что позволило ему попасть под защиту авторского права как произведению искусства.
В настоящее время в разработке находится проект Закона об искусственном интеллекте 2024 г. Документ в основном дорабатывался в направлении развития возможностей искусственного интеллекта. Он включает положения о разумном использовании данных, защищенных авторским правом, при обучении модели ИИ. Если использование данных, защищенных авторским правом, для обучения моделей отличается от их первоначальной цели, определенных автором (владельцем), и не оказывает негативного влияния на нормальное использование данных или законные права их владельца, это считается разумным. Такой подход, как представляется, узаконивает в широком смысле свободу использования данных.
Эти меры отражают акцент Китая на контроле информационного ландшафта, особенно в контексте инструментов ИИ, которые могут быстро генерировать огромные объемы контента. Требуя регистрации услуг и алгоритмов на базе ИИ и оценки с точки зрения безопасности продукта и согласованности с ценностями государства, правительство гарантирует, что инструменты генеративного ИИ соответствуют государственным приоритетам, включая общественную безопасность и социальную гармонию.
Разработка стандартов и этических норм
Помимо конкретных положений для алгоритмов и генеративного ИИ, более широкая стратегия Китая в области ИИ объединяет акцент на национальной безопасности и этических стандартах. Технологии ИИ, особенно те, которые способны влиять на общественное мнение или нарушать работу ключевых отраслей, рассматриваются как важнейший компонент национальной стратегии. Регламенты часто включают:
- Руководящие принципы для компаний по обеспечению соответствия их систем ИИ требованиям национальной безопасности.
- Положения о постоянном мониторинге систем ИИ, особенно тех, которые развернуты в таких чувствительных секторах, как финансы, здравоохранение и оборона.
- Этические соображения, требующие от систем ИИ придерживаться социальных ценностей, избегать дискриминации и обеспечивать справедливость в процессах принятия решений.
Руководство по управлению этикой ИИ, разработанное в 2021 г. Министерством науки и технологий Китая, включает семь ключевых принципов:
- Гармония и дружелюбие: ИИ должен способствовать улучшению качества жизни и социального благополучия.
- Справедливость и беспристрастность: разработка и применение ИИ должны исключать дискриминацию.
- Включенность и всеобщая выгода: все слои общества должны иметь равный доступ к преимуществам ИИ.
- Безопасность и контроль: технологии ИИ должны быть безопасными и поддающимися контролю.
- Ответственность: организации и лица, использующие ИИ, должны нести ответственность за его влияние.
- Открытость и прозрачность: алгоритмы и технологии должны быть понятны и доступны для проверки.
- Этическое лидерство: Китай стремится быть мировым лидером в области ответственного использования ИИ.
Эти всеобъемлющие принципы служат для согласования развития ИИ в Китае с более широкими государственными интересами, гарантируя, что технологии не только экономически жизнеспособны, но и соответствуют социально-политическим целям правительства.
Отличие китайского подхода к регулированию ИИ
Китай усиленно работает над внедрением новых регулировок в сфере искусственного интеллекта, которые должны сбалансировать государственный контроль и поддержку компаний для их успешной конкуренции на мировом рынке.
Предпринимаемые регуляторные шаги продолжают демонстрировать, как Китай подобно Европе движется к государственному управлению ИИ, который признан одной из самых перспективных, но в то же время и спорных технологий последнего десятилетия. В отличие от Китая, в США на данный момент нет закона, который бы решал проблемы регулирования ИИ, несмотря на многочисленные призывы со стороны промышленности, которая предупреждает о рисках, которые несет ИИ для общества.
Основное отличие китайского подхода от США заключается в жесткости регулирования. Китайская модель включает обязательную маркировку контента, созданного с помощью ИИ, что направлено на предотвращение обмана. Китай также требует, чтобы все компании использовали только «законные данные» для обучения своих ИИ-моделей и раскрывали эти данные регулирующим органам при необходимости. Это требование направлено на защиту интеллектуальной собственности и предотвращение ее использования в ущерб законным владельцам контента. Кроме того, китайские компании обязаны создать механизмы для обработки общественных жалоб на свои услуги и контент, что добавляет прозрачности в работу ИИ. В отличие от Китая, США сохраняют более свободный подход к регулированию. Хотя там также ведется обсуждение законопроектов, в том числе на уровне Сената, в целом регулирование ИИ в США остается на начальной стадии. Примером служат усилия некоторых крупных американских компаний, таких как Google и Microsoft, которые добровольно взяли на себя обязательства по тестированию своих систем на безопасность и устойчивость к киберугрозам, но эти обязательства не касаются аспектов конфиденциальности или защиты интеллектуальной собственности.
Кратко разницу между регулированием ИИ в Китае и США можно подсветить по четырем ключевым аспектам:
- Введение новых услуг: в Китае компании обязаны пройти проверку безопасности перед запуском ИИ-сервисов, в то время как в США таких ограничений практически нет.
- Маркировка контента: Китай требует четкой маркировки контента, созданного ИИ, в отличие от США, где это необязательно.
- Защита интеллектуальной собственности (IP): В Китае модели должны обучаться на данных, которые не нарушают IP, с возможными штрафами, в США регулирование IP менее строгое.
- Публичная отчетность: В Китае компании обязаны внедрять механизмы для публичного мониторинга. В США больший акцент делается на прозрачности рисков и уязвимостей без обязательной отчетности.
Если сравнивать с другим ключевым игроком в области ИИ — Евросоюзом, то разница в подходах здесь также существенная. Хотя оба актора стремятся сбалансировать инновации и безопасность, ЕС фокусируется на подходе, основанном на рисках, в соответствии с Законом об ИИ. Закон классифицирует системы ИИ на основе их потенциального риска для прав человека, налагая строгие требования на высоко рисковые приложения, такие как здравоохранение, транспорт и биометрические данные. ЕС также подчеркивает прозрачность, подотчетность и защиту данных. Китайские же правила ИИ более строгие и централизованные, включая жесткий государственный надзор. Правила предписывают маркировку контента, прозрачность использования данных и строгое соблюдение вопросов национальной безопасности. Сосредоточение Китая на социальном контроле и этических стандартах отличает его подход от более инновационной модели ЕС, где правила разработаны для того, чтобы гарантировать, что разработка ИИ не ставит под угрозу права личности и общественную безопасность. Хотя обе модели регулирования отдают приоритет безопасности и этическим соображениям, подход Китая более интервенционистский, отражая его более широкие цели контроля технологий для поддержания общественного порядка, в то время как структура ЕС стремится сбалансировать защиту с рыночной конкуренцией.
Вывод
Китайский подход к регулированию ИИ отражает сочетание инновационной политики и строгого надзора, особенно в отношении манипуляции контентом, конфиденциальности данных и национальной безопасности. Уравновешивая потребность в технологическом прогрессе с заботой о социальном порядке и безопасности, Китай стремится позиционировать себя как мирового лидера в разработке ИИ, сохраняя при этом контроль над его общественным влиянием.
Важная особенность китайской модели — трехэтапный подход: начальная либерализация, позволяющая ускорить внедрение инноваций, затем усиление контроля при выявлении рисков, и, наконец, стабилизация нормативной базы. Таким образом, обеспечивается баланс между инновациями и регулированием, когда при строгих мерах регулирования, ограничивающих гибкость разработки, Китай стремится создать среду, где инновации и контроль дополняют друг друга.
Уделяется большое внимание глобальной конкуренции и заимствованию опыта — Китай внимательно изучает международный опыт, включая подходы ЕС и США, чтобы адаптировать лучшие практики к своим нуждам. Долгосрочная стратегия — еще один козырь в развитии ИИ, так как подход Китая основан на стратегическом планировании с четкими целями, что позволяет стране постепенно внедрять как технологические, так и регуляторные инновации.
Уделяя большое внимание вопросам этики и стандартов, Китай активно развивает нормы этичного использования ИИ, акцентируя внимание на прозрачности и защите данных. Кроме того, регулирование помогает укреплять позиции Поднебесной как мирового лидера в ИИ, тем самым усиливая ее международное влияние.
Суммируя вышеизложенное, можно сказать, что Китай демонстрирует уникальный подход к регулированию ИИ, который сочетает строгий контроль с амбициозными целями технологического лидерства. Российская Федерация, также имея опыт в стратегическом планировании развития современных технологий, таких как ИИ, могла бы взять цикличность в применении инструментов регулирования различной степени «жесткости», что обеспечивало бы баланс между инновациями (большей свободой в регулировании), ответственностью и социальными интересами (более четкими и обязательными нормами регулирования). Опыт Китая подчеркивает важность сочетания долгосрочного планирования и адаптации к быстро меняющимся технологическим условиям.
1. https://chinamediaproject.org/the_ccp_dictionary/big-data-swindling/
2. https://www.researchgate.net/publication/369617467_Analysis_of_the_Current_Situation_and_Mechanism_of_Big_Data_Killing_on_Chinese_Internet_Platforms
3. Роевой интеллект (РИ) — это технология, которая действует по принципу самоорганизующегося коллектива: каждая единица выполняет конкретную функцию, взаимодействуя с другими элементами. Вместе все элементы реализуют какую-то более сложную задачу. Роевой интеллект обладает потенциалом децентрализованного управления процессами. См.: https://issek.hse.ru/trendletter/news/160287919.html
4. Внутренние риски соответствия — это риски, возникающие из факторов, которые в значительной степени подконтрольны организации. Например, риски ложных решений в оценке соответствия вещества или материала на основе сопоставления результатов измерений с пределами допускаемых содержаний основных компонентов и примесей. Различают риск производителя, когда годный продукт ошибочно признают несоответствующим спецификациям и в результате бракуют, и риск потребителя, когда несоответствующий тем же спецификациям продукт ошибочно признают годным и выпускают на рынок.
Внешние риски соответствия — это риски, возникающие из факторов, которые в значительной степени не подконтрольны организации. Среди таких факторов принято выделять социальные, политические, экономические, технологические, правовые и природные факторы.