Обязательное раскрытие данных
Разработчиков нейронных сетей в России могут обязать раскрывать исходные данные, пишут «Ведомости». Это может вызвать массовую дискуссию о правомерности использования таких материалов без разрешения их владельцев, в том числе издателей.
ИТ-разработчиков отечественных моделей искусственного интеллекта (ИИ) могут обязать раскрывать сведения о наборах данных, на которых обучалась или тестировалась их нейронные сеть. Такая инициатива в феврале 2026 г. обсуждается отраслевыми ассоциациями, компаниями в области ИИ-технологий и профильным регулятором в рамках проработки законопроекта по ИИ, рассказали «Ведомостям» два участника обсуждения из различных компаний.
Предполагается, что ИТ-компании должны будут указывать название набора данных, дату его создания, назначение, формат, объем и происхождение. Рассматриваются варианты создания отдельного реестра отечественного ИИ либо реестра наборов данных. Где именно будет аккумулироваться такая информация, пока не определено.
В июне 2025 г. заместитель министра цифрового развития сообщил о том, что Министерстве цифрового развития, связи и массовых коммуникаций (Минцифры) России займется разработкой реестра доверенного ИИ для использования в объектах критической инфраструктуры, писал CNews. Судьба проекта в феврале 2026 г. не известна. Постановлением Правительства России от декабря 2025 г. Минцифры внесло требования к программно-аппаратным комплексам для ИИ для попадания в реестр отечественного программного обеспечения (ПО). Иных реестров для ИИ-технологий в России пока нет.
В Минцифры России подтвердили, что в текущей версии рамочного законопроекта требований о раскрытии обучающих данных нет. Документ пока носит общий характер и определяет базовые подходы к регулированию отрасли.
Правительство России прорабатывает законопроект по регулированию ИИ, говорил журналистам 6 февраля 2026 г. представитель аппарата вице-премьера России . Правительство России также прорабатывает критерии отечественности для нейронных сетей, вопросы авторского права, маркировки ИИ-контента, ответственности за нарушения и предотвращения использования ИИ в преступных целях. Рассматривается возможность признания применения ИИ отягчающим обстоятельством при совершении правонарушений.
Формальное перечисление информации
Представители российской ИТ-отрасли указывают, что полное описание массивов данных может потребовать значительных ресурсов и стать формальностью без реальной аналитической ценности. Кроме того, раскрытие информации может затронуть коммерческие интересы разработчиков и замедлить вывод новых ИТ-решений на рынок.
Представитель Альянса в ИИ-сфере (входят Сбербанк, «Яндекс», VK, «Т-Банк», МТС и другие компании) уточнил, что полное и точное описание подобного массива данных в реестровом формате либо потребует ресурсов, несоразмерных результату, либо сведется к формальному перечислению без аналитической ценности.
В то же время сторонники инициативы считают, что прозрачность повысит доверие к ИИ-моделям, позволит независимую оценку качества и дисциплинирует работу с данными. Это также может способствовать формированию легального рынка данных и снижению рисков использования материалов без разрешения правообладателей.
Подпишись на анонсы мероприятийРаскрытие информации о наборах данных, на которых обучались нейронные сети, будет способствовать формированию коммерческого рынка данных. Сейчас ИТ-разработчики используют открытые и все доступные им данные для обучения своих ИИ-моделей, как правило, бесплатно и без разрешения их владельцев, сетует заведующий ИИ-кафедрой Финансового университета . Такая ситуация стимулирует развитие ИИ, но, по сути, остается серой зоной в регуляции ИИ, что порождает конфликты интересов и создает риски утечек чувствительных и персональных данных, использования личного образа и копирования авторского почерка, перечисляет он.
Не все данные для обучения ИИ имеют одинаковую стоимость, делает оговорку руководитель ИИ-института ИТМО . В интернете достаточно много данных со свободным доступом - например, новостные ленты или данные, которые уже стали народным достоянием, такие как литературные или художественные произведения, перечисляет он. Поэтому логично, что для ИИ-систем все эти данные могут использоваться бесплатно, так как это будет способствовать их большему распространению, говорит эксперт.
С точки зрения расценок можно опираться на существующие рынки, сказал сооснователь Promobot . Например, аналитические исследования могут стоить десятки тысяч долларов, банки диссертаций - сотни тысяч рублей, а литературные произведения - сотни рублей, говорит он.
Решение еще не принято
Эксперты отмечают, что при введении обязательного раскрытия потребуется разработка гибких лицензионных механизмов. В международной практике подобные требования уже применяются, однако их реализация связана с юридическими и техническими сложностями.
Если регулирование будет распространяться на модели, вводимые в оборот или используемые в публичных ИТ-сервисах на территории России, формально требования могут затронуть не только российских игроков вроде «Яндекса» и Сбербанка, но и иностранных разработчиков, включая OpenAI, Microsoft, DeepSeek и Perplexity AI, которые вряд ли станут их соблюдать, рассуждает заместитель исполнительного директора Центра компетенций Национальной технологической инициативы по большим данным Московского государственного университета им. М.В.Ломоносова (ЦК НТИ МГУ) .
25 февраля 2026 г. окончательного решения по инициативе не принято. Обсуждение продолжается на площадках профильных ассоциаций и ведомств.
Существующие регулирование
В феврале 2026 г. в большинстве нормативных правовых актов в России относительно ИИ носит лишь стимулирующий характер, при этом есть точечные ограничения и механизмы саморегулирования. Например, в 2020 г. был принят закон «Об экспериментальных правовых режимах в сфере цифровых инноваций» (ЭПР), который позволяет делать правовые исключения для апробирования новых технологий. Уже к концу 2024 г. запущено 16 экспериментальных правовых режимов. В рамках ЭПР были определены случаи обязательного страхования за вред, причиненный применением ИИ-технологий, перечисляют авторы документа. Помимо ограничений, утвержденных законом об ЭПР, правила внедрения и использования ИИ существующим российским законодательством не закреплены.
С 2025 г. действует национальный проект «Экономика данных», частью которого является федеральный проект «ИИ», о чем информировал CNews. В рамках него государство направляет гранты на поддержку проектов в ИИ-сфере и реализует работу научно-исследовательских центров. В том же году Центральный Банк (Центробанк) России представил кодекс этики в сфере разработки и применения ИИ-технологий на финансовом рынке. В нем заложены пять принципов: человекоцентричность, справедливость, прозрачность, безопасность и ответственное управление рисками. Сам по себе кодекс носит рекомендательный характер для ИТ-разработчиков.