2025/11/20 14:02:36

Регулирование искусственного интеллекта


Содержание

Основная статья: Искусственный интеллект

Хроника

2026: В России создали межведомственную группу для борьбы с дипфейками

В январе 2026 года министр цифрового развития, связи и массовых коммуникаций России Максут Шадаев подписал приказ о формировании межведомственной рабочей группы для борьбы с незаконным использованием дипфейков. Соответствующий документ размещен на официальном сайте ведомства. Подробнее здесь.

2025

Президент России Владимир Путин поручил создать штаб руководства ИИ в России

19 ноября 2025 года президент России Владимир Путин поручил правительству и главам регионов сформировать национальный план внедрения генеративного искусственного интеллекта. Глава государства заявил о необходимости создания нового координирующего штаба, наделенного полномочиями постановки задач, контроля их исполнения и обеспечения ресурсами.

Путин подчеркнул важность развития отечественных языковых моделей — алгоритмов, понимающих и генерирующих человеческую речь, — и обеспечения стабильности цифровой инфраструктуры для гарантии суверенитета данных.

«
«Это вопрос суверенитета, - подчеркнул российский лидер.
»

Президент России Владимир Путин дал указание сформировать штаб для управления развитием искусственного интеллекта в стране

Президент предложил реализовать программу развития центров обработки данных (ЦОДов). К этим мощностям, по словам Путина, должны получить доступ стартапы, научные организации и технологические компании. Президент также заявил, что темпы внедрения ИИ в регионах станут ключевым показателем ежегодного рейтинга цифровой трансформации. Ожидается, что совокупный вклад технологий искусственного интеллекта в валовой внутренний продукт России к 2030 году превысит 11 трлн руб.

Гендиректор АНО «Координационная лаборатория» Анна Сытник подтвердила, что страна движется к созданию централизованной модели координации. Заместитель исполнительного директора ЦК НТИ по большим данным МГУ Гарник Арутюнян указал, что наиболее динамично ИИ внедряется в отраслях с быстрым измеримым эффектом: финансах, телекоммуникациях, крупном ритейле и медицине. Гендиректор Института AIRI Иван Оселедец отметил растущий интерес бизнеса к экономически эффективным решениям на основе ИИ.

Для обеспечения энергоснабжения новых вычислительных мощностей президент анонсировал планы по серийному производству малых и наземных атомных электростанций. По его словам, на Урале, в Сибири и на Дальнем Востоке планируется построить 38 атомных энергоблоков.[1]

Минцифры подготовило законопроект: за кибермошенничество с использованием ИИ в России будут сажать в тюрьму на 6 лет

Минцифры РФ предложило новые штрафы и ужесточение ответственности за кибермошенничество. Соответствующие законопроекты о внесении изменений в Кодекс об административных правонарушениях (КоАП) и о поправках в Уголовный и Уголовно-процессуальный кодексы (УК и УПК) опубликованы на федеральном портале проектов нормативных правовых актов 26 августа 2025 года.

Как сообщает «Интерфакс» со ссылкой на эти документы, в одном из проектов закона предлагается введение ответственности за применение «специальных технических средств и специальных познаний при совершении преступлений», в том числе с использованием искусственного интеллекта.

За кибермошенничество с использованием ИИ в России будут сажать в тюрьму на 6 лет. Минцифры уже подготовило законопроект

Под ИИ «понимается комплекс технологических решений, позволяющий имитировать когнитивные функции человека (включая самообучение и поиск решений без заранее заданного алгоритма) и получать при выполнении конкретных задач результаты, сопоставимые, как минимум, с результатами интеллектуальной деятельности человека», говорится в законопроекте.

Его пункт признает отягчающим обстоятельством использование нейросетей при совершении киберпреступлений. За это может грозить до шести лет тюрьмы или штраф до 500 тыс. рублей.

«
Предусматривается наказание за применение мошенниками искусственного интеллекта при совершении краж или вымогательстве денежных средств и имущества граждан. Минимальное наказание, которое может грозить мошенникам за использование ИИ при совершении краж, - штраф от 100 тыс. рублей, - сообщили журналистам в аппарате вице-премьера РФ Дмитрия Григоренко.
»

Кроме того, предлагается ужесточение санкций статей 272 УК РФ (Неправомерный доступ к компьютерной информации), 273 УК РФ (Создание, использование и распространение вредоносных компьютерных программ) и 274 УК РФ (Нарушение правил эксплуатации средств хранения, обработки или передачи компьютерной информации и информационно-телекоммуникационных сетей), по которым максимальным наказанием станет восемь лет лишения свободы в случае наступления или угрозы наступления тяжких последствий.[2]

Минцифры разработало концепцию регулирования ИИ в России

Министерство цифрового развития России подготовило проект концепции развития регулирования отношений в сфере технологий искусственного интеллекта до 2030 года. Документ определяет принципы будущего законодательного регулирования отрасли и описывает факторы, влияющие на развитие ИИ-технологий в различных секторах экономики. Разработка концепции завершена в августе 2025 года.

Как пишет «Ведомости», проект создавался в сотрудничестве с Альянсом в сфере искусственного интеллекта, объединяющим крупные технологические компании, заинтересованные в развитии данных технологий. Представитель Минцифры подтвердил подлинность документа и уточнил, что он проходит экспертное обсуждение с представителями индустрии и отраслей активного внедрения ИИ-решений.

Минцифры создало концепцию регулирования искусственного интеллекта в России

По завершении консультационного процесса концепция будет направлена на межведомственное согласование. Представители Минэкономразвития и Минпромторга сообщили, что проект концепции в установленном порядке в их ведомства пока не поступал.

Представитель Минпромторга отметил, что создание единой системы регулирования в сфере ИИ требует разработки комплексного подхода, учитывающего этические, правовые и социальные аспекты использования технологий. Ведомство выразило готовность активно участвовать в разработке соответствующих законодательных инициатив.

Представитель Альянса в сфере ИИ подчеркнул, что благоприятные условия для безопасного развития технологий могут быть выработаны только в тесном взаимодействии с отраслью, с учетом практического опыта и долгосрочной стратегической перспективы. В основу проекта вошли консолидированные предложения отраслевых организаций и компаний Альянса, включая «Сбер».

Россия применяет гибридный подход к регулированию искусственного интеллекта. Большинство нормативных актов носит стимулирующий характер, но существуют точечные ограничения и механизмы саморегулирования. В 2020 году был принят закон об экспериментальных правовых режимах в сфере цифровых инноваций, позволяющий создавать правовые исключения для апробации новых технологий.[3]

Герман Греф: Блокчейн — пример отрицательного регулирования технологии в России, важно не повторить это со сферой ИИ

Госрегулирования в сфере искусственного интеллекта (ИИ) не избежать, т.к. это технология, которая затрагивает и граждан, и бизнес, и государство, и помимо большого количества преимуществ несёт также большое количество рисков. Но вопрос в том, как регулировать, заявил президент, председатель правления Сбербанка Герман Греф, выступая 19 июня на форуме в Санкт-Петербурге.

Глядя на опыт других стран, способы регулирования разделились на три типа. Первый — это стимулирующий тип регулятивной поддержки ИИ. Его придерживаются такие страны как Британия, Южная Корея, Япония. Они стараются практически не регулировать ИИ, создавая благоприятные условия для развития национальных систем: «Все понимают, насколько важно иметь именно национальные системы».

Второй тип — регулятивный, он характерен для ЕС, например. Там первыми в мире приняли довольно комплексный регулирующий документ — «Акт об искусственном интеллекте»: «И там всё хорошо с регулированием, но нет искусственного интеллекта».

«
Это очень дорого и ответственность такова, что ни одна компания сегодня не может поручиться, что технология, находящаяся пока только в экспериментальной разработке, не допустит каких-то ошибок. И штрафы запредельные. Поэтому все компании стараются переехать куда-то за пределы Евросоюза, чтобы не подвергать себя таким рискам, — отметил Герман Греф.
»

Глава Сбера Герман Греф считает, что блокчейн не тот пример, на который стоит ориентироваться по части госрегулирования

А третий тип, к которому можно отнести и Россию — гибридное регулирование. В этом же крыле находится и США. Здесь, с одной стороны, есть регулирование, а с другой, есть поддержка и попытка не побежать вперёд и не создавать барьеры в развитии новой технологии.

«
Мы побежали вперёд в части регулирования блокчейна, и я считаю это хорошим отрицательным примером у нас. Технология блокчейна развивается у нас не очень хорошо. И допустить второй раз такую ошибку никак нельзя. В истории нашей страны было много таких вещей, когда мы лишались целой отрасли экономики будущего, прекратив исследования в какой-то области, — заявил председатель правления Сбера.
»

Сейчас, по его мнению, есть консенсус: есть моральное регулирование — «Кодекс разработчика искусственного интеллекта», к которому уже подключились все крупнейшие разработчики ИИ в России. Есть и техническое регулирование, и стимулирующее регулирование, включающее, к примеру, действие экспериментального правового режима в Москве.

Зампред Госдумы Владислав Даванков, участвовавший в той же дискуссии, считает, что регулирование в сфере ИИ нужно. Сейчас даже нет понятийного аппарата, его ещё предстоит выработать. Но регулирование при этом должно быть «умным», а не «дубовым»: чтобы не было как в США, где основатель известной соцсети Марк Цукерберг «ходит в Сенат как на работу и оправдывается за каждое своё действие, и его всё время там ругают». В сентябре 2025 года планируются большие парламентские слушания, где будут «спокойно обсуждаться» эти вопросы. Владислав Даванков согласен с Германом Грефом, что спешить в этом не нужно.

В целом роль государства в развитии ИИ критична, отмечает Герман Греф. Во всём мире ИИ признан технологией номер один, и все крупнейшие развитые государства стараются помогать в развитии этих технологий в своих странах. При этом всех примеров помощи государства, которые доводилось видеть главе Сбера, самую масштабную помощь оказывают в Китае. Именно благодаря госпомощи в Китае самое большое количество фундаментальных моделей: как подсчитали в Сбере, в стране порядка 240 моделей с более чем миллиардом параметров и свыше 20 моделей с более чем 200 миллиардов параметров.

Ни в одном другом государстве мира такой конкуренции в области ИИ нет. Путь, который проделало правительство для создания конкуренции, является оправданным, отметил Герман Греф. ИИ при этом — очень дорогая технология, что связано в первую очередь с вычислительными мощностями. В Китае строятся государственные дата-центры, которые передаются в пользование средним компаниям.

США тоже много делают для развития сферы ИИ. Например, много поправок было принято в части налогового законодательства. Глядя на эти примеры, можно сказать, что помощь государства точно нужна. При этом главная помощь заключается в выстраивании необходимой системы образования. И здесь глава Сбера опять сделал отсылку к Китаю, где в качестве обязательного курса с 1-го по 11-й класс внедрены учебники в области ИИ: «Китайцы начинают изучать искусственный интеллект в детском саду».

Кроме того, нужно субсидировать науку, научные учреждения, чтобы те взаимодействовали с компаниями, которые занимаются разработкой в области ИИ. При этом таким крупным компаниям как Сбер или «Яндекс» помогать не требуется, полагает Герман Греф.

За использование ИИ в преступных целях в России будут сажать в тюрьму на срок до 15 лет. Минцифры уже подготовило законопроект

Министерство цифрового развития России подготовило законопроект о введении уголовной ответственности за преступления с использованием искусственного интеллекта. Документ, о котором стало известно в июне 2025 года, предусматривает наказание в виде штрафов до ₽2 млн и тюремных сроков до 15 лет. Законопроект разработан в рамках реализации протокола совещания под руководством заместителя председателя правительства Дмитрия Григоренко и направлен на регулирование правоприменительной практики в условиях роста применения ИИ-технологий.

Как передают «Ведомости», законопроект вносит поправки в несколько статей Уголовного кодекса России. Под действие новых норм попадут кража, мошенничество, вымогательство, злостное воздействие на информационные системы и нарушение правил эксплуатации средств хранения компьютерной информации.

В России за применение искусственного интеллекта в преступных действиях предусмотрено наказание в виде лишения свободы на срок до 15 лет

В статье 158 УК России приводится определение искусственного интеллекта. Под ним понимается «комплекс технологических решений, позволяющий имитировать когнитивные функции человека и получать при выполнении конкретных задач результаты, сопоставимые с результатами интеллектуальной деятельности человека». Комплекс включает ИКТ-инфраструктуру, программное обеспечение, процессы и сервисы по обработке данных.

За кражу с использованием ИИ предусматриваются штрафы от ₽100 тыс. или в размере заработной платы осужденного за 1-3 года. Альтернативой служат принудительные работы до 5 лет с ограничением свободы до 2 лет или лишение свободы до 6 лет с возможным штрафом до ₽80 тыс.

За вымогательство с использованием ИКТ и ИИ установлены штрафы от ₽100 тыс. до ₽500 тыс. или в размере дохода за 1-3 года. Предусмотрены принудительные работы до 5 лет с ограничением свободы до 1,5 лет или лишение свободы до 5 лет с штрафом до ₽80 тыс.

При совершении вымогательства или кражи группой лиц, с применением насилия или в крупном размере преступникам грозит до 7 лет лишения свободы. Штраф составит до ₽500 тыс. или в размере дохода за 3 года, плюс ограничение свободы до 2 лет.[4]

Минцифры РФ сообщило о разработке Концепции развития регулирования ИИ до 2030 года

Министерство цифрового развития России завершает подготовку «Концепции развития регулирования искусственного интеллекта до 2030 года». Доработка документа практически завершена, в ближайшее время ведомство согласует его с другими министерствами. Об этом сообщили в Минцифры 26 мая 2025 года.

Как пишет «Коммерсантъ», особое внимание в концепции уделяется этике и контролю человека за искусственным интеллектом в зависимости от их задач. В Минцифры отметили, что современные системы искусственного интеллекта могут выполнять незапрограммированные задачи, что повышает риски их использования.

Министерство цифрового развития Российской Федерации объявило о разработке концепции, касающейся регулирования искусственного интеллекта до 2030 года

В Санкт-Петербурге в конце мая 2025 года прошли закрытые и публичные обсуждения будущего регулирования искусственного интеллекта. Представители регуляторов — Минцифры, Минюста и администрации президента — обсудили финальные подходы к разрабатываемой концепции.

Параллельно с подготовкой концепции правительство уже приступило к внедрению технологий искусственного интеллекта в управление, экономику и социальную сферу. Для федеральных и региональных ведомств создаются типовые решения на основе доверенного искусственного интеллекта. Решения будут универсальными, то есть созданными не под одну локальную задачу.

Вице-премьер Дмитрий Григоренко заявил 12 мая 2025 года, что искусственный интеллект перестал быть далекой инновацией, став понятной технологией. Общий фокус государства в отношении искусственного интеллекта смещен на внедрение и масштабирование лучших практик.

Для понимания целей и задач решений были опрошены регионы, на основании чего ведется работа по созданию универсальных систем. В начале мая 2025 года стало известно, что правительство планирует создать на базе своего аналитического центра центр развития искусственного интеллекта. Подразделение должно координировать взаимодействие федеральных, региональных властей и бизнеса в реализации профильных задач.[5]

В Госдуме сформирована рабочая группа для разработки законов в области искусственного интеллекта

В Государственной Думе России в апреле 2025 года сформирована межфракционная рабочая группа, задачей которой станет подготовка законодательных инициатив в сфере регулирования искусственного интеллекта. Структура возглавляется заместителем председателя нижней палаты Александром Бабаковым. В состав объединения вошли представители всех парламентских фракций. Рабочая группа будет действовать до завершения полномочий восьмого созыва и сосредоточится на выработке правовых механизмов для внедрения и использования «национально ориентированных» ИИ-систем в различных отраслях.

Как пишут «Ведомости», материалы к организационному собранию депутатов подтверждены источником в нижней палате парламента. Александр Бабаков сообщил, что вопрос регулирования искусственного интеллекта «не должен никого пугать», подчеркнув при этом, что данная сфера не может развиваться исключительно по рыночным законам и ориентироваться только на нормы прибыли.

Депутаты организовали спецгруппу для подготовки законов об ИИ

Руководитель рабочей группы отметил необходимость комплексной оценки факторов, включая потенциальные угрозы, в том числе этического характера, связанные с развитием новых трансграничных технологий. Также Бабаков указал на важность изучения насыщенности рынка и его развития в сочетании с энергетическим сектором.

Создание рабочей группы происходит на фоне активизации государственной политики в сфере искусственного интеллекта. В феврале 2024 года президент России Владимир Путин подписал указ, обновивший национальную стратегию развития ИИ до 2030 года. Согласно данному документу, к установленному сроку доля работников с навыками использования ИИ должна достичь 80% (для сравнения, в 2022 году этот показатель составлял лишь 5%).

Стратегия также предусматривает повышение уровня доверия граждан к технологиям искусственного интеллекта до 80% (с 55% в 2022 году). Организациям к 2030 году предстоит инвестировать не менее ₽850 млрд на внедрение и использование технологий ИИ.[6]

Президент России Владимир Путин поручил разработать национальную нормативно-правовую базу для ИИ

Президент России Владимир Путин 24 февраля 2025 года выступил с инициативой разработки нормативно-правовой базы для регулирования работы с большими массивами данных в сфере искусственного интеллекта (ИИ). Основной целью является сокращение сроков разработки и внедрения новых материалов до 2-3 лет.

Как пишет CNews, глава государства подчеркнул необходимость создания механизмов, регулирующих сбор, хранение, обработку, передачу и использование данных.

«
За счет внедрения ИИ, компьютерного моделирования в нашей стране нужно — и это вполне реально — уменьшить до 5-10 лет, а в перспективе до двух-трех лет сроки разработки и внедрения новых материалов, — заявил Владимир Путин.
»

Президент России Владимир Путин

Президент обозначил ключевые направления применения новых материалов, включая композиты и сплавы для машиностроения и авиакосмической отрасли, средства защиты растений, системы передачи и хранения энергии для транспорта и беспилотников, а также инновационные прототипы органов и тканей человека для медицины.

Вице-премьер России Дмитрий Чернышенко отметил, что страна входит в число мировых лидеров по разработке ИИ-технологий. У российских ученых есть уникальные нейронные процессоры и математические модели, обеспечивающие технологический суверенитет.

В правительстве уже активно используются технологии искусственного интеллекта, включая работу с закрытыми данными в изолированном сегменте. Для повышения эффективности внутреннего управления и документооборота применяются цифровые агенты и системы двойников.

Вице-премьер также обратил внимание на важность обучения работе с нейронными сетями, подчеркнув, что лишь 20% преподавателей и студентов эффективно используют ИИ. По его словам, искусственный интеллект должен выступать в роли универсального справочника и онлайн-помощника, способствующего развитию человека, а не замещать его.[7]

2024

РПЦ разработала и утвердила принципы использования искусственного интеллекта

Общецерковная аспирантура и докторантура имени святых равноапостольных Кирилла и Мефодия утвердила первый в России документ, регламентирующий применение технологий искусственного интеллекта в духовном образовании. Решение принято Ученым советом учреждения 30 сентября 2024 года. Подробнее здесь.

Минэкономики РФ подготовит регуляторные песочницы к использованию ИИ

В начале сентября 2024 года Минэкономики РФ обнародовало три проекта постановлений правительства, направленных на реализацию поправок к федеральному закону об экспериментальных правовых режимах (ЭПР — «регуляторные песочницы») в сфере цифровых инноваций (169-ФЗ). Речь, в частности, идет об использовании средств искусственного интеллекта.

Отмечается, что по состоянию на сентябрь 2024-го в России реализуются 16 ЭПР, из которых 13 связаны с беспилотниками. При этом «регуляторные песочницы» позволяют отказаться от некоторых нормативных требований, мешающих развитию инноваций. Благодаря такому подходу компании, занимающиеся разработкой новых продуктов и услуг, а также представители органов власти могут тестировать их без риска нарушить действующее законодательство, а впоследствии, если тестирование прошло успешно, — выходить с ними на рынок.

Минэкономики РФ создаст регуляторные песочницы для использования ИИ

Один из проектов постановлений Минэкономики меняет правила внесения изменений в ЭПР — они, как отмечает газета «Коммерсантъ», могут быть подготовлены уполномоченным органом или регулятором по собственной инициативе, поручению президента или правительства, а также по предложениям компаний. Второй проект призван оптимизировать процедуры представления отчетов субъектов ЭПР о своей деятельности. Третий документ дает Минэкономики дополнительное основание для приостановления статуса субъекта ЭПР — по заключению комиссии ведомства, созданной для установления обстоятельств, при которых был причинен вред в результате использования решений с использованием искусственного интеллекта.

В целом, поправки ориентированы на ускорение запуска новых программ, а также на уточнение порядка апробации технологий ИИ. Предполагается, что изменения значительно упростят доступ к ЭПР со стороны бизнеса.[8]

Минцифры РФ готовит правила использования искусственного интеллекта

26 июля 2024 года Совет по правам человека при президенте РФ (СПЧ) и Минцифры России сообщили о совместной инициативе по разработке правил и ограничений использования искусственного интеллекта в определенных отраслях. Речь идет о здравоохранении, образовании, судопроизводстве, транспорте, сфере безопасности и психологической помощи.

Говорится, что советник президента РФ, глава СПЧ Валерий Фадеев встретился с Министром цифрового развития, связи и массовых коммуникаций Максутом Шадаевым, предложив обсудить статью председателя Конституционного суда Валерия Зорькина о необходимости конституционно-правового анализа внедрения ИИ. По словам Фадеева, вокруг цифровизации «существует некая эйфория», которая зачастую не оправдана и иногда приводит к ошибочным, преждевременным решениям.

Минцифры РФ разрабатывает правила использования искусственного интеллекта

Отмечается, что ИИ все активнее используется при анализе медицинских данных и постановке диагноза. Однако есть опасность профессиональной деградации медиков, которые предпочтут отдавать решения на откуп ИИ, а не принимать их самостоятельно. Новые цифровые технологии позволяют более тщательно следить за успеваемостью школьников, но это, как утверждается, чревато выстраиванием траектории развития детей. Кроме того, на фоне повсеместного внедрения ИИ может наблюдаться избыточный сбор и незаконный оборот персональных данных. Поэтому необходима разработка правил использования ИИ, которые помогут минимизировать возможные риски и избежать утечек информации.

«
Будем разбираться в конкретных отраслях, разрабатывать конкретные правила и на уровне отраслей определять объем собираемых данных. Начать предлагаю с образования как самой «фонящей» темы. Подготовим наши предложения в ближайший месяц (до конца августа 2024 года), — сказал Шадаев.[9]
»

В России введена ответственность за причинение вреда при использовании решений с ИИ

9 июля 2024 года в России введена ответственность за причинение вреда при использовании решений с искусственным интеллектом. Этот шаг стал результатом внесения поправок в Федеральный закон «Об экспериментальных правовых режимах в сфере цифровых инноваций в Российской Федерации». По новым положениям закона предусмотрено страхование рисков, возникающих при использовании технологий ИИ, что обеспечит дополнительную защиту для граждан и юридических лиц.

Законодательные изменения включают ответственность за вред, нанесённый жизни, здоровью или имуществу физических и юридических лиц при реализации экспериментальных правовых режимов с использованием ИИ. Поправки предусматривают создание комиссии для расследования всех обстоятельств, связанных с причинением такого вреда. Комиссия будет оценивать объем и характер вреда, включая технические сбои и ошибки, допущенные при разработке и внедрении технологий ИИ, а также действия или бездействия лиц, которые могли повлечь причинение вреда.

В России введена ответственность за вред от использования решений с ИИ

На основании выводов комиссии будут приниматься решения по минимизации и устранению последствий причинения вреда, предупреждению подобных случаев в будущем, изменению условий экспериментального правового режима или приостановлению статуса субъекта экспериментального правового режима. Эти меры направлены на обеспечение безопасности и надежности технологий ИИ в рамках правовых экспериментов.

Закон также устанавливает обязательное страхование гражданской ответственности участников экспериментальных правовых режимов за вред, причиненный жизни, здоровью или имуществу других лиц, включая случаи, связанные с использованием решений на основе ИИ. Введены требования к условиям такого страхования, включая минимальный размер страховой суммы, перечень страховых рисков и страховых случаев. Субъект экспериментального правового режима обязан вести реестр лиц, вступивших с ним в правоотношения, что позволит обеспечить прозрачность и контроль за процессом страхования.

Закон вступит в силу через 180 дней после его официального опубликования.[10]

Разработчиков ИИ в России обязали страховать риски нанесения вреда их системами

25 июня 2024 года Госдума РФ приняла закон об обязательном страховании ответственности за вред от искусственного интеллекта. Документ, как отмечается, направлен на совершенствование механизмов применения экспериментальных правовых режимов (ЭПР) в сфере цифровых инноваций.

Закон нацелен в том числе на предупреждение и минимизацию рисков возникновения негативных последствий использования ИИ-технологий. Участникам ЭПР предписано страховать гражданскую ответственность за причинение вреда жизни, здоровью или имуществу других лиц в результате применения ИИ. В соответствии с новыми правилами, субъект ЭПР обязан вести реестр лиц, вступающих с ним в правоотношения. В этой базе должна содержаться информация об ответственных за использование решений, основанных на ИИ. Кроме того, компаниям придется вести реестр созданных результатов интеллектуальной деятельности с указанием их правообладателя.

Разработчиков ИИ в России обязали страховать риски

Еще одним нововведением является формирование комиссии по выявлению обстоятельств, в результате которых при применении ИИ причинен вред. Предлагается, что в состав комиссии будут входить представители уполномоченного и регулирующего органов, а также организации предпринимательского сообщества. Кроме того, при необходимости могут быть включены иные лица. Вносимые изменения согласуются с основными принципами развития и использования технологий ИИ, соблюдение которых обязательно при реализации Национальной стратегии развития искусственного интеллекта на период до 2030 года.

«
В случае если при реализации ЭПР в результате использования решений, разработанных с применением технологий ИИ, причинен вред жизни, здоровью или имуществу человека либо имуществу юридического лица, в течение 30 дней со дня выявления факта причинения такого вреда регулирующий орган создает комиссию для установления обстоятельств, при которых был причинен такой вред, — отмечается в документе.
»

В соответствии с законом исключается требование к инициатору об отсутствии у него судимости, поскольку практика установления ЭПР показала отсутствие необходимости и эффективности данного требования в целом. Подчеркивается, что наличие справки об отсутствии судимости не влияет на решение вопроса об установлении ЭПР — указанный документ не является предметом рассмотрения заинтересованными органами (в частности, МВД России, ФСБ России и правительством Российской Федерации). Вместе с тем требование об отсутствии судимости может предъявляться в рамках программы ЭПР в первую очередь в отношении лиц, непосредственно осуществляющих апробацию инноваций.

«
Данный подход уже нашел отражение в действующих программах ЭПР, где лицу, имеющему судимость, запрещается осуществлять функции водителя-испытателя, диспетчера беспилотных авиационных систем, что является более адресной и эффективной мерой противодействия совершению противоправных действий, — сказано в документе.
»

Президент Всероссийского союза страховщиков (ВСС) Евгений Уфимцев в качестве примера приводит риск гражданской ответственности причинения вреда беспилотным автомобилем. По его словам, само по себе страхование ответственности за причинение вреда в результате использования ИИ ставит ряд новых для юридической и страховой практики вопросов. Вместе с тем начальник управления страхования ответственности «Ингосстраха» Дмитрий Шишкин говорит, что рынок страхования ИИ будет развиваться, но «драйвером этого развития должна стать определенная законом ответственность разработчиков ИИ».[11]

Как в США, ЕС и Китае проводится госрегулирование сферы ИИ

Стремительное развитие искусственного интеллекта, в том числе генеративных сервисов, привело к необходимости регулирования соответствующей сферы. Различные законодательные инициативы в области ИИ уже приняты или обсуждаются на уровне правительств в Евросоюзе, Китае и США. О новых требованиях в середине января 2024 года рассказал Институт статистических исследований и экономики знаний НИУ ВШЭ.

В частности, Европарламент и Евросовет согласовали положения Закона об искусственном интеллекте (AI Act). Документ призван защитить от высокорискового ИИ гражданские права и демократию, обеспечить верховенство закона и экологическую устойчивость, а также стимулировать инновации. В основе законопроекта лежит риск-ориентированный подход: вводятся понятия запрещенных вредоносных ИИ-практик, высокорисковых систем ИИ, систем ограниченного риска и систем с низким или минимальным риском (на них не налагаются никакие ограничения). Высокорисковые системы ИИ должны соответствовать требованиям по риск-менеджменту, тестированию, технической надежности, обучению и управлению данными, прозрачности, кибербезопасности и управляемости людьми. Для систем ИИ, используемых для биометрической идентификации, потребуется оценка со стороны специализированного органа.

В США, в свою очередь, принят Указ о безопасном, надежном и заслуживающем доверия ИИ. Как и европейский законопроект, американский документ требует от создателей систем ИИ прозрачности процессов. Для повышения безопасности использования технологий на базе ИИ Национальный институт стандартов и технологий разработает требования, которым должны соответствовать эти системы.

Китай принял так называемые Временные меры по управлению генеративными системами ИИ. В соответствии с документом, разработчики таких платформ отвечают за весь генерируемый контент. Создатели сервисов обязаны улучшать точность и надежность генерируемых материалов, а также повышать прозрачность услуг. Кроме того, разработчики должны предотвращать создание контента, подрывающего социалистические ценности или подстрекающего к свержению государственного строя. Необходимо также защищать персональные данные пользователей и соблюдать права на интеллектуальную собственность и частную жизнь.[12]

Робототехника



  1. Что президент сказал о плане по развитию ИИ
  2. Минцифры предложило новые штрафы и ужесточение ответственности за кибермошенничество
  3. Минцифры подготовило концепцию регулирования искусственного интеллекта
  4. Минцифры предлагает уголовную ответственность за применение ИИ в криминале
  5. Теория ИИ практика
  6. В Госдуме создана рабочая группа по регулированию искусственного интеллекта
  7. Президент России призвал к разработке национальной нормативно-правовой базы для искусственного интеллекта
  8. Регуляторным песочницам уточняют бортики
  9. СПЧ и Минцифры договорились выработать правила использования ИИ
  10. Введена ответственность за причинение вреда при использовании решений с ИИ
  11. О внесении изменений в Федеральный закон «Об экспериментальных правовых режимах в сфере цифровых инноваций в Российской Федерации»
  12. Регулирование искусственного интеллекта: первые шаги