Открытые
(8 работ)
01 Января – 25 Декабря
ПРОБЛЕМЫ ПРАВОВОГО РЕГУЛИРОВАНИЯ ИСПОЛЬЗОВАНИЯ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА В СИСТЕМАХ ОБЕСПЕЧЕНИЯ БЕЗОПАСНОСТИ ЖИЗНЕДЕЯТЕЛЬНОСТИ
Дудоров В.Е.1, к. с/х. н., ст. преподаватель
1 Федеральное государственное бюджетное образовательное учреждение высшего образования «Оренбургский государственный университет имени В. А. Бондаренко», кафедра «Безопасность жизнедеятельности», г. Оренбург, Российская Федерация
Аннотация
В статье рассматриваются актуальные проблемы правового регулирования применения технологий искусственного интеллекта (ИИ) в системах обеспечения безопасности жизнедеятельности. Анализируется действующая нормативно-правовая база Российской Федерации и зарубежный опыт регулирования интеллектуальных систем в критически важных областях: промышленной безопасности, мониторинге чрезвычайных ситуаций, системах видеонаблюдения и прогнозирования рисков. Выявляются ключевые правовые пробелы — отсутствие чётких стандартов ответственности при причинении вреда решениями ИИ, неурегулированность вопросов объяснимости алгоритмов и обработки персональных данных. Обосновывается необходимость разработки специализированного законодательства и профессиональных стандартов для специалистов в области безопасности жизнедеятельности, эксплуатирующих системы ИИ.
Ключевые слова: безопасность жизнедеятельности, искусственный интеллект, правовое регулирование, нормативно-правовая база, ответственность, чрезвычайные ситуации, промышленная безопасность, персональные данные, алгоритмическая прозрачность, профессиональные стандарты.
Текст доклада
В условиях ускоренной цифровизации всех отраслей экономики и государственного управления технологии искусственного интеллекта всё активнее внедряются в системы обеспечения безопасности жизнедеятельности. Интеллектуальные алгоритмы применяются для мониторинга производственных объектов, прогнозирования и предупреждения чрезвычайных ситуаций, управления системами видеонаблюдения, диагностики неисправностей критической инфраструктуры и координации спасательных операций. Несмотря на очевидный потенциал данных технологий, их практическое внедрение порождает ряд серьёзных правовых вопросов, требующих системного нормативного урегулирования.[1]
Специфика применения ИИ в области безопасности жизнедеятельности состоит в том, что последствия ошибочных решений алгоритмов могут затрагивать жизнь и здоровье людей, состояние окружающей среды и функционирование критической инфраструктуры. Это принципиально отличает данную сферу от иных областей применения ИИ и предъявляет повышенные требования к правовому обеспечению соответствующих отношений.[2]
В рамках дисциплины «Безопасность жизнедеятельности» изучение нормативно-правовой базы, регулирующей применение ИИ, приобретает особую актуальность, поскольку будущие специалисты будут непосредственно работать с такими системами в профессиональной деятельности.
Современное состояние правового регулирования ИИ в России
На сегодняшний день в Российской Федерации отсутствует единый специализированный закон об искусственном интеллекте. Правовую основу регулирования составляет ряд документов стратегического характера: Национальная стратегия развития искусственного интеллекта на период до 2030 года (утв. Указом Президента РФ от 10 октября 2019 г. № 490), Федеральный закон № 123-ФЗ от 24 апреля 2020 г. «О проведении эксперимента по установлению специального регулирования в целях создания необходимых условий для разработки и внедрения технологий искусственного интеллекта», а также ряд отраслевых нормативных актов.[3]
В сфере промышленной безопасности и предупреждения чрезвычайных ситуаций действуют Федеральный закон № 116-ФЗ «О промышленной безопасности опасных производственных объектов» и Федеральный закон № 68-ФЗ «О защите населения и территорий от чрезвычайных ситуаций природного и техногенного характера». Однако данные законы были приняты задолго до широкого распространения технологий ИИ и не содержат специальных норм, регулирующих применение интеллектуальных систем.[4]
Анализ действующего законодательства позволяет выявить следующие ключевые правовые пробелы.
Таблица 1 — Правовые пробелы в регулировании ИИ в сфере БЖД
Правовой пробел | Описание проблемы | Возможные последствия |
Ответственность за вред | Неясно, кто несёт ответственность: разработчик, оператор или пользователь системы ИИ | Безнаказанность при причинении вреда жизни и здоровью граждан |
Объяснимость алгоритмов | Отсутствуют требования к прозрачности и интерпретируемости решений ИИ | Невозможность аудита и оспаривания автоматических решений |
Персональные данные | Недостаточная регламентация обработки биометрических и иных данных системами ИИ | Риски нарушения прав граждан на приватность |
Сертификация систем | Отсутствуют обязательные стандарты проверки и сертификации ИИ для критических применений | Внедрение ненадёжных систем на объектах повышенной опасности |
Профессиональные стандарты | Не определены квалификационные требования к специалистам, эксплуатирующим ИИ-системы в БЖД | Некомпетентное использование систем, увеличение рисков аварий |
Зарубежный опыт правового регулирования
Анализ международного опыта показывает, что ряд государств уже предпринял шаги по формированию специализированной нормативной базы для регулирования ИИ в чувствительных областях. В апреле 2021 года Европейская комиссия представила проект Регламента об искусственном интеллекте (AI Act), который был принят в 2024 году. Данный документ впервые на наднациональном уровне вводит риск-ориентированный подход к регулированию ИИ: системы, применяемые для управления критической инфраструктурой и обеспечения безопасности, отнесены к категории «высокого риска» и подлежат обязательной сертификации, аудиту и регистрации.[5]
В Соединённых Штатах Америки Национальный институт стандартов и технологий (NIST) разработал Рамочную программу управления рисками ИИ (AI Risk Management Framework, 2023), содержащую методологические рекомендации по оценке, снижению и документированию рисков применения ИИ, в том числе в системах безопасности. Китайская Народная Республика с 2022 года ввела в действие Правила управления алгоритмическими рекомендациями, а также нормативные акты, регулирующие применение технологий распознавания лиц в публичных пространствах.[6]
Таким образом, прослеживается устойчивая международная тенденция к формированию специального законодательства, устанавливающего обязательные требования к системам ИИ, используемым в критически важных областях, включая безопасность жизнедеятельности. Российское законодательство в данном отношении существенно отстаёт от мировых стандартов.
Ключевые проблемы и направления их решения
На основании проведённого анализа можно выделить несколько ключевых проблем правового регулирования ИИ в системах обеспечения БЖД и предложить соответствующие пути их решения.[7]
Первой и наиболее острой является проблема распределения юридической ответственности. При причинении вреда в результате ошибочного решения системы ИИ действующее гражданское и административное законодательство не позволяет однозначно определить субъект ответственности. Необходимо законодательно установить механизм солидарной ответственности разработчика, оператора и пользователя, а также ввести обязательное страхование гражданской ответственности при эксплуатации ИИ на объектах повышенной опасности.[3]
Второй проблемой является отсутствие требований к объяснимости и прозрачности алгоритмов. В сфере БЖД это особенно критично: специалист, получающий предупреждение или рекомендацию от системы ИИ, должен иметь возможность понять основания принятого решения, чтобы обоснованно оценить его достоверность. Решением может стать закрепление в нормативных актах требования о документировании логики работы ИИ-систем и обязательном предоставлении пояснений к их решениям.[2]
Третьей проблемой выступает защита персональных данных. Современные системы мониторинга безопасности активно применяют видеонаблюдение, биометрическую идентификацию и обработку данных о местонахождении граждан. При этом действующий Федеральный закон № 152-ФЗ «О персональных данных» не содержит специальных норм, учитывающих специфику обработки данных системами ИИ в режиме реального времени.[4]
Четвёртой проблемой является отсутствие стандартов сертификации и верификации ИИ-систем для применения в критически важных объектах. Без установленных процедур проверки надёжности и безопасности алгоритмов внедрение ИИ на промышленных предприятиях и объектах инфраструктуры несёт неприемлемые риски.[1]
Таблица 2 — Предлагаемые меры правового регулирования ИИ в сфере БЖД
Направление | Предлагаемая мера | Ожидаемый результат |
Ответственность | Введение механизма солидарной ответственности и обязательного страхования | Правовая защита пострадавших и стимулирование безопасной разработки |
Прозрачность | Закрепление требований к объяснимости алгоритмов в нормативных актах | Возможность аудита и контроля решений ИИ |
Персональные данные | Дополнение ФЗ-152 специальными нормами об обработке данных системами ИИ | Защита прав граждан в условиях цифрового наблюдения |
Сертификация | Разработка обязательных стандартов верификации ИИ для объектов повышенной опасности | Повышение надёжности систем, снижение числа аварий |
Профстандарты | Введение квалификационных требований к специалистам БЖД, работающим с ИИ | Рост компетентности кадров, снижение рисков эксплуатации |
Выводы
Таким образом, применение технологий искусственного интеллекта в системах обеспечения безопасности жизнедеятельности открывает значительные возможности для повышения эффективности мониторинга, прогнозирования и предупреждения чрезвычайных ситуаций. Вместе с тем существующий правовой вакуум создаёт серьёзные риски как для граждан, так и для организаций, эксплуатирующих данные системы.
Формирование полноценной правовой базы, регулирующей применение ИИ в сфере БЖД, предполагает принятие специализированного законодательства об ИИ, совершенствование норм об ответственности и защите персональных данных, а также разработку технических стандартов и профессиональных требований к специалистам в данной области.[5]
Опыт европейского AI Act и американского AI Risk Management Framework может служить ориентиром для российского законодателя. При этом необходимо учитывать национальную специфику организации систем гражданской обороны, промышленной безопасности и защиты населения от чрезвычайных ситуаций. Только комплексный и системный подход к правовому регулированию позволит обеспечить безопасное и эффективное внедрение ИИ в критически важные системы жизнеобеспечения общества.[6][7]
ЛИТЕРАТУРА
Бурцева Т.И. Разработка и внедрение инновационных технологий в области безопасности жизнедеятельности // Вестник ОГУ. — 2022. — № 4. — С. 34–40.
Бурцева Т.И. Оценка эффективности образовательных программ по безопасности жизнедеятельности // Вестник ОГУ. — 2021. — № 6. — С. 56–61.
Дудоров В.Е. Оценка и прогнозирование рисков в системе обеспечения безопасности жизнедеятельности // Вестник ОГУ. — 2022. — № 5. — С. 45–50.
Федеральный закон от 24.04.2020 № 123-ФЗ «О проведении эксперимента по установлению специального регулирования в целях создания необходимых условий для разработки и внедрения технологий искусственного интеллекта в субъекте Российской Федерации — городе федерального значения Москве». — М., 2020.
Regulation (EU) 2024/1689 of the European Parliament and of the Council laying down harmonised rules on artificial intelligence (Artificial Intelligence Act). — Official Journal of the European Union, 2024.
NIST AI Risk Management Framework (AI RMF 1.0). — National Institute of Standards and Technology, 2023.
Рахимова Н.Н., Бурцева Т.И. Оценка риска здоровью населения: учебное пособие. – Оренбург: ОГУ, 2025. – С. 30-32.



