Экспериментальные режимы и этика ИИ: как в России регулируют развитие искусственного интеллекта
Россия вошла в число стран с наиболее благоприятными условиями для развития искусственного интеллекта. В нашей стране присутствует сбалансированный подход, создающий условия для развития национальных генеративных ИИ-сервисов без формирования избыточных административных барьеров. Такие сведения следуют из исследования, которая провела компания «Технологии Доверия» (ТеДо) совместно с АНО «Цифровая экономика». О том, с какими трудностями приходится сталкиваться разработчикам ИИ-сервисов в России, почему многие страны начали смягчать регулирование ГенИИ, и к чему может привести «мягкая политика» в этом вопросе — мы поговорили с руководителем проектов развития AI-продуктов компании Directum Ильей Петуховым.

Илья Петухов
руководитель проектов развития AI-продуктов компании Directum
Недобросовестные участники, пользующиеся свободой,
могут нанести ущерб репутации всей отрасли.
Нам надо на уровне сообщества это отслеживать
и вносить корректирующие действия,
чтобы выбранный нами путь приносил только благо.
Как показало исследование, более 70% стран и юрисдикций, продвинутых в разработке и внедрении генеративного ИИ, предпочитают мягкое и рамочное регулирование этой сферы. По такому же пути решили пойти США и некоторые страны Евросоюза, где раньше придерживались жесткого контроля процессов развития генеративного ИИ. С чем это связано?
Смягчение подходов к регулированию в ЕС и США на практике показывает влияние быстрого развития технологий. Жесткие, детализированные нормы быстро устаревают, создавая большие сложности для бизнеса, который не успевает за появлением новых кейсов применения ИИ. Во многих странах исследования показывают двойственное отношение бизнеса к инновационным технологиям. В России мы только недавно перешли в преобладающее ИИ-амбассадорство, поэтому смещается фокус на разъяснения и методические рекомендации по действующим правилам, а также на корректировку требований. В целом все эти активности — попытка найти компромисс между защитой прав и поддержкой технологического прогресса.
Удобно ли разработчикам ИИ-сервисов работать в рамках существующих сегодня российских правил?
Учить, учить и еще раз учить ИИ Российская нормативная база, регламентирующая разработку, внедрение и использование генеративных нейросетей, сейчас придерживается «сбалансированного подхода». В этом есть и плюсы, и минусы для разработчиков. Регулирование строится на стратегических документах и национальных проектах («Национальная стратегия развития ИИ» или «Национальный план по внедрению ИИ в экономику, социальную сферу и госуправление», который по указу президента должен быть готов к середине 2026 года). При этом, у нас есть и более гибкие подходы. Многие разработчики забывают про экспериментальный правовой режим (ЭПР), национальные стандарты и Кодекс этики ИИ. Это все так или иначе позволяет тестировать решения в реальных условиях при временных исключениях из общих правил.
Достаточно ли сегодня нормативной базы для разработки ИИ-инструментов, или все же чего-то не хватает? Есть что-то, что у вас, руководителя проектов развития AI-продуктов, вызывает опасения?
Немного настораживает отсутствие детальных законов в сфере ответственности за решения ИИ и в области использования персональных данных. Тут каждый действует с осторожностью, так как пока нет четкого представления, как это нужно делать правильно. Без внешних рамок выше риски, связанные с «галлюцинациями» ИИ, предвзятостью алгоритмов и кибербезопасностью. Многие разработчики решают проблему так: самостоятельно устанавливают свои высокие стандарты, чтобы было место для маневра в дальнейшем.
А не опасно ли так балансировать? Вдруг отсутствие лишних барьеров со временем подорвёт доверие пользователей или международных партнеров? Какие видите риски в долгосрочной перспективе?
Сложно однозначно ответить на этот вопрос, так как пока не было альтернативных примеров. Последние годы мы в России движемся в этом направлении осторожно. У такого подхода несколько путей развития. Отсутствие внятных механизмов проверки и сертификации ИИ-решений, особенно в чувствительных сферах (медицина, финансы), может подорвать доверие пользователей. Если правовые и этические нормы будут развиваться слишком медленно, мы можем столкнуться с новыми социальными и правовыми вызовами (например, с дискриминацией алгоритмов или вопросами авторства), не имея готовых механизмов реагирования. Успех выбранной модели во многом зависит от зрелости и ответственности рынка. Недобросовестные участники, пользующиеся свободой, могут нанести ущерб репутации всей отрасли. Нам надо на уровне сообщества это отслеживать и вносить корректирующие действия, чтобы выбранный нами путь приносил только благо.
Комментарии 0