Российские власти готовы открыть доступ к государственным массивам данных для обучения нейросетей, но цена такого шага — тотальный контроль спецслужб. Разработчикам придется доказывать «суверенность» своих алгоритмов и получать визы ФСБ, что вызывает у представителей ИТ-индустрии опасения по поводу новых административных барьеров и технической изоляции.
Обновленная версия законопроекта о регулировании искусственного интеллекта, представленная в мае 2026 года, вводит жесткую фильтрацию для технологических компаний. Теперь использование государственных массивов информации для обучения нейросетей станет возможным только после получения положительного заключения от ФСБ и ФСТЭК. Власти обосновывают это необходимостью защиты чувствительных сведений, однако для индустрии это означает переход к режиму ручного управления доступом к данным.Ключевым инструментом контроля станет национальный реестр доверенных ИТ-решений. В него будут включать только те модели, которые доказали свою информационную безопасность и соответствие критериям локализации. Если в предыдущих редакциях документа требования реестра распространялись преимущественно на государственные системы и объекты критической инфраструктуры, то теперь рамки расширяются. Правительство получает право по согласованию с Центробанком внедрять обязательное использование суверенных алгоритмов в банковской сфере.
Критерии суверенности и отраслевые риски Законодатели предлагают разделить отечественный ИИ на две категории. К «суверенным» моделям отнесут продукты, весь цикл создания которых — от разработки архитектуры до финальной эксплуатации — проходит на территории России и контролируется исключительно местными игроками. «Национальные» модели допускают использование иностранного Open Source, но их обучение обязано проходить на российских датасетах.

Комментарии (0)
Пока нет комментариев. Будьте первым!