
В Госдуме создана межфракционная группа по регулированию искусственного интеллекта
В Государственной думе сформирована межфракционная рабочая группа, которая займется разработкой законодательства в сфере искусственного интеллекта. Как сообщают «Ведомости» со ссылкой на материалы к организационному собранию и подтверждённый источник в нижней палате, группа будет работать над созданием правовой базы для «национально ориентированного» ИИ до конца 2026 года.
Возглавил рабочую группу вице-спикер Госдумы Александр Бабаков («Справедливая Россия»). По его словам, регулирование ИИ — сложная задача, требующая учёта множества факторов, включая этические риски и вопросы энергопотребления. «Это не та сфера, которая может развиваться чисто по рыночным законам», — подчеркнул Бабаков.
Инициатива создания группы поступила от председателя Госдумы Вячеслава Володина. Как пояснил депутат Антон Ткачёв («Новые люди»), регулирование ИИ затрагивает широкий спектр вопросов — от энергетики и безопасности до международного сотрудничества и защиты данных. Депутат Андрей Свинцов (ЛДПР) добавил, что первоочередная задача — определить потребности бизнеса и государства, поскольку в российском законодательстве пока отсутствует понятие ИИ.
Рабочая группа займётся подготовкой законопроектов, касающихся применения ИИ в различных отраслях, включая оборону и госбезопасность, а также разработкой мер по противодействию использованию этих технологий в преступных целях. Кроме того, планируется создать правовые условия для внедрения ИИ в систему государственного стратегического планирования.
Напомним, что в феврале 2024 года президент Владимир Путин подписал указ о новой стратегии развития ИИ до 2030 года. Согласно документу, к 2030 году доля работников с навыками использования ИИ должна достичь 80% (против 5% в 2022 году), а уровень доверия граждан к этим технологиям — вырасти до 80% (с 55% в 2022 году). Организациям предстоит инвестировать в ИИ не менее 850 миллиардов рублей.
Как отметил на конференции РАПК начальник управления президента по мониторингу социальных процессов Александр Харичев, ответственность за решения, принимаемые с помощью ИИ, должна лежать на людях, которые обучали эти системы.
Следующим шагом рабочей группы станет подготовка к парламентским слушаниям по вопросам регулирования искусственного интеллекта.