Проблемы правового регулирования использования искусственного интеллекта в системах обеспечения безопасности жизнедеятельности

Психология и педагогика
«Проблемы правового регулирования использования искусственного интеллекта в системах обеспечения безопасности жизнедеятельности» — научная статья, выявляющая правовые пробелы в сфере ИИ: ответственность за решения алгоритмов, прозрачность работы систем, защита персональных данных и сертификация. На основе анализа российского и зарубежного законодательства предложены пути устранения пробелов. Практическая ценность: материал поможет юристам, разработчикам и госслужащим формировать эффективную нормативную базу для внедрения ИИ в безопасность жизнедеятельности.
Дудоров Виктор Евгеньевич
Дудоров Виктор Евгеньевич
Содержимое публикации

ПРОБЛЕМЫ ПРАВОВОГО РЕГУЛИРОВАНИЯ ИСПОЛЬЗОВАНИЯ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА В СИСТЕМАХ ОБЕСПЕЧЕНИЯ БЕЗОПАСНОСТИ ЖИЗНЕДЕЯТЕЛЬНОСТИ

Дудоров В.Е.1, к. с/х. н., ст. преподаватель

1 Федеральное государственное бюджетное образовательное учреждение высшего образования «Оренбургский государственный университет имени В. А. Бондаренко», кафедра «Безопасность жизнедеятельности», г. Оренбург, Российская Федерация

Аннотация

В статье рассматриваются актуальные проблемы правового регулирования применения технологий искусственного интеллекта (ИИ) в системах обеспечения безопасности жизнедеятельности. Анализируется действующая нормативно-правовая база Российской Федерации и зарубежный опыт регулирования интеллектуальных систем в критически важных областях: промышленной безопасности, мониторинге чрезвычайных ситуаций, системах видеонаблюдения и прогнозирования рисков. Выявляются ключевые правовые пробелы — отсутствие чётких стандартов ответственности при причинении вреда решениями ИИ, неурегулированность вопросов объяснимости алгоритмов и обработки персональных данных. Обосновывается необходимость разработки специализированного законодательства и профессиональных стандартов для специалистов в области безопасности жизнедеятельности, эксплуатирующих системы ИИ.

Ключевые слова: безопасность жизнедеятельности, искусственный интеллект, правовое регулирование, нормативно-правовая база, ответственность, чрезвычайные ситуации, промышленная безопасность, персональные данные, алгоритмическая прозрачность, профессиональные стандарты.

Текст доклада

В условиях ускоренной цифровизации всех отраслей экономики и государственного управления технологии искусственного интеллекта всё активнее внедряются в системы обеспечения безопасности жизнедеятельности. Интеллектуальные алгоритмы применяются для мониторинга производственных объектов, прогнозирования и предупреждения чрезвычайных ситуаций, управления системами видеонаблюдения, диагностики неисправностей критической инфраструктуры и координации спасательных операций. Несмотря на очевидный потенциал данных технологий, их практическое внедрение порождает ряд серьёзных правовых вопросов, требующих системного нормативного урегулирования.[1]

Специфика применения ИИ в области безопасности жизнедеятельности состоит в том, что последствия ошибочных решений алгоритмов могут затрагивать жизнь и здоровье людей, состояние окружающей среды и функционирование критической инфраструктуры. Это принципиально отличает данную сферу от иных областей применения ИИ и предъявляет повышенные требования к правовому обеспечению соответствующих отношений.[2]

В рамках дисциплины «Безопасность жизнедеятельности» изучение нормативно-правовой базы, регулирующей применение ИИ, приобретает особую актуальность, поскольку будущие специалисты будут непосредственно работать с такими системами в профессиональной деятельности.

Современное состояние правового регулирования ИИ в России

На сегодняшний день в Российской Федерации отсутствует единый специализированный закон об искусственном интеллекте. Правовую основу регулирования составляет ряд документов стратегического характера: Национальная стратегия развития искусственного интеллекта на период до 2030 года (утв. Указом Президента РФ от 10 октября 2019 г. № 490), Федеральный закон № 123-ФЗ от 24 апреля 2020 г. «О проведении эксперимента по установлению специального регулирования в целях создания необходимых условий для разработки и внедрения технологий искусственного интеллекта», а также ряд отраслевых нормативных актов.[3]

В сфере промышленной безопасности и предупреждения чрезвычайных ситуаций действуют Федеральный закон № 116-ФЗ «О промышленной безопасности опасных производственных объектов» и Федеральный закон № 68-ФЗ «О защите населения и территорий от чрезвычайных ситуаций природного и техногенного характера». Однако данные законы были приняты задолго до широкого распространения технологий ИИ и не содержат специальных норм, регулирующих применение интеллектуальных систем.[4]

Анализ действующего законодательства позволяет выявить следующие ключевые правовые пробелы.

Таблица 1 — Правовые пробелы в регулировании ИИ в сфере БЖД

Правовой пробел

Описание проблемы

Возможные последствия

Ответственность за вред

Неясно, кто несёт ответственность: разработчик, оператор или пользователь системы ИИ

Безнаказанность при причинении вреда жизни и здоровью граждан

Объяснимость алгоритмов

Отсутствуют требования к прозрачности и интерпретируемости решений ИИ

Невозможность аудита и оспаривания автоматических решений

Персональные данные

Недостаточная регламентация обработки биометрических и иных данных системами ИИ

Риски нарушения прав граждан на приватность

Сертификация систем

Отсутствуют обязательные стандарты проверки и сертификации ИИ для критических применений

Внедрение ненадёжных систем на объектах повышенной опасности

Профессиональные стандарты

Не определены квалификационные требования к специалистам, эксплуатирующим ИИ-системы в БЖД

Некомпетентное использование систем, увеличение рисков аварий

Зарубежный опыт правового регулирования

Анализ международного опыта показывает, что ряд государств уже предпринял шаги по формированию специализированной нормативной базы для регулирования ИИ в чувствительных областях. В апреле 2021 года Европейская комиссия представила проект Регламента об искусственном интеллекте (AI Act), который был принят в 2024 году. Данный документ впервые на наднациональном уровне вводит риск-ориентированный подход к регулированию ИИ: системы, применяемые для управления критической инфраструктурой и обеспечения безопасности, отнесены к категории «высокого риска» и подлежат обязательной сертификации, аудиту и регистрации.[5]

В Соединённых Штатах Америки Национальный институт стандартов и технологий (NIST) разработал Рамочную программу управления рисками ИИ (AI Risk Management Framework, 2023), содержащую методологические рекомендации по оценке, снижению и документированию рисков применения ИИ, в том числе в системах безопасности. Китайская Народная Республика с 2022 года ввела в действие Правила управления алгоритмическими рекомендациями, а также нормативные акты, регулирующие применение технологий распознавания лиц в публичных пространствах.[6]

Таким образом, прослеживается устойчивая международная тенденция к формированию специального законодательства, устанавливающего обязательные требования к системам ИИ, используемым в критически важных областях, включая безопасность жизнедеятельности. Российское законодательство в данном отношении существенно отстаёт от мировых стандартов.

Ключевые проблемы и направления их решения

На основании проведённого анализа можно выделить несколько ключевых проблем правового регулирования ИИ в системах обеспечения БЖД и предложить соответствующие пути их решения.[7]

Первой и наиболее острой является проблема распределения юридической ответственности. При причинении вреда в результате ошибочного решения системы ИИ действующее гражданское и административное законодательство не позволяет однозначно определить субъект ответственности. Необходимо законодательно установить механизм солидарной ответственности разработчика, оператора и пользователя, а также ввести обязательное страхование гражданской ответственности при эксплуатации ИИ на объектах повышенной опасности.[3]

Второй проблемой является отсутствие требований к объяснимости и прозрачности алгоритмов. В сфере БЖД это особенно критично: специалист, получающий предупреждение или рекомендацию от системы ИИ, должен иметь возможность понять основания принятого решения, чтобы обоснованно оценить его достоверность. Решением может стать закрепление в нормативных актах требования о документировании логики работы ИИ-систем и обязательном предоставлении пояснений к их решениям.[2]

Третьей проблемой выступает защита персональных данных. Современные системы мониторинга безопасности активно применяют видеонаблюдение, биометрическую идентификацию и обработку данных о местонахождении граждан. При этом действующий Федеральный закон № 152-ФЗ «О персональных данных» не содержит специальных норм, учитывающих специфику обработки данных системами ИИ в режиме реального времени.[4]

Четвёртой проблемой является отсутствие стандартов сертификации и верификации ИИ-систем для применения в критически важных объектах. Без установленных процедур проверки надёжности и безопасности алгоритмов внедрение ИИ на промышленных предприятиях и объектах инфраструктуры несёт неприемлемые риски.[1]

Таблица 2 — Предлагаемые меры правового регулирования ИИ в сфере БЖД

Направление

Предлагаемая мера

Ожидаемый результат

Ответственность

Введение механизма солидарной ответственности и обязательного страхования

Правовая защита пострадавших и стимулирование безопасной разработки

Прозрачность

Закрепление требований к объяснимости алгоритмов в нормативных актах

Возможность аудита и контроля решений ИИ

Персональные данные

Дополнение ФЗ-152 специальными нормами об обработке данных системами ИИ

Защита прав граждан в условиях цифрового наблюдения

Сертификация

Разработка обязательных стандартов верификации ИИ для объектов повышенной опасности

Повышение надёжности систем, снижение числа аварий

Профстандарты

Введение квалификационных требований к специалистам БЖД, работающим с ИИ

Рост компетентности кадров, снижение рисков эксплуатации

Выводы

Таким образом, применение технологий искусственного интеллекта в системах обеспечения безопасности жизнедеятельности открывает значительные возможности для повышения эффективности мониторинга, прогнозирования и предупреждения чрезвычайных ситуаций. Вместе с тем существующий правовой вакуум создаёт серьёзные риски как для граждан, так и для организаций, эксплуатирующих данные системы.

Формирование полноценной правовой базы, регулирующей применение ИИ в сфере БЖД, предполагает принятие специализированного законодательства об ИИ, совершенствование норм об ответственности и защите персональных данных, а также разработку технических стандартов и профессиональных требований к специалистам в данной области.[5]

Опыт европейского AI Act и американского AI Risk Management Framework может служить ориентиром для российского законодателя. При этом необходимо учитывать национальную специфику организации систем гражданской обороны, промышленной безопасности и защиты населения от чрезвычайных ситуаций. Только комплексный и системный подход к правовому регулированию позволит обеспечить безопасное и эффективное внедрение ИИ в критически важные системы жизнеобеспечения общества.[6][7]

ЛИТЕРАТУРА

  1. Бурцева Т.И. Разработка и внедрение инновационных технологий в области безопасности жизнедеятельности // Вестник ОГУ. — 2022. — № 4. — С. 34–40.

  2. Бурцева Т.И. Оценка эффективности образовательных программ по безопасности жизнедеятельности // Вестник ОГУ. — 2021. — № 6. — С. 56–61.

  3. Дудоров В.Е. Оценка и прогнозирование рисков в системе обеспечения безопасности жизнедеятельности // Вестник ОГУ. — 2022. — № 5. — С. 45–50.

  4. Федеральный закон от 24.04.2020 № 123-ФЗ «О проведении эксперимента по установлению специального регулирования в целях создания необходимых условий для разработки и внедрения технологий искусственного интеллекта в субъекте Российской Федерации — городе федерального значения Москве». — М., 2020.

  1. Regulation (EU) 2024/1689 of the European Parliament and of the Council laying down harmonised rules on artificial intelligence (Artificial Intelligence Act). — Official Journal of the European Union, 2024.

  2. NIST AI Risk Management Framework (AI RMF 1.0). — National Institute of Standards and Technology, 2023.

  3. Рахимова Н.Н., Бурцева Т.И. Оценка риска здоровью населения: учебное пособие. – Оренбург: ОГУ, 2025. – С. 30-32.

Комментировать
Свидетельство участника экспертной комиссии
Оставляйте комментарии к работам коллег и получите документ бесплатно!
Подробнее
Также Вас может заинтересовать
Научная статья
Дошкольное образование по научные статьи для «Семья и ее роль в развитии личности»
Научная статья
Дошкольное образование по научные статьи для «Организация здоровьесберегающей методической работы в ДОУ»
Научная статья
Дошкольное образование по научные статьи для «Формирование толерантности у дошкольников»
Научная статья
Научная статья
Психология и педагогика по научные статьи для высшей школы «Человек и природа в условиях туркменистана»
Комментарии
Добавить
публикацию
После добавления публикации на сайт, в личном кабинете вы сможете скачать бесплатно свидетельство и справку о публикации в СМИ.
Cвидетельство о публикации сразу
Получите свидетельство бесплатно сразу после добавления публикации.
Подробнее
Свидетельство за распространение педагогического опыта
Опубликует не менее 15 материалов и скачайте бесплатно.
Подробнее
Рецензия на методическую разработку
Опубликуйте материал и скачайте рецензию бесплатно.
Подробнее
Свидетельство участника экспертной комиссии
Стать экспертом и скачать свидетельство бесплатно.
Подробнее
Помощь