Регулирование ИИ 2026: критика AI Act, фокус на использовании, а не моделях | AiManual
AiManual Logo Ai / Manual.
08 Фев 2026 Новости

Регулирование ИИ: почему законы должны фокусироваться на использовании, а не на моделях

Анализ регулирования ИИ в 2026 году: почему законы вроде AI Act проваливаются, когда пытаются контролировать модели, а не их реальное применение. Экспертный взг

Европейский AI Act провалился в 2025 году. И вот почему это хорошо

Помните 2024 год? Все говорили про риск-ориентированный подход. Генеративные модели с высоким риском, модели с ограниченным риском, минимальный риск. Регуляторы в Брюсселе думали, что можно классифицировать ИИ как лекарства или самолёты.

К февралю 2026 года стало очевидно: они просчитались. Кардинально.

Ключевой провал: регуляторы пытались оценить опасность самой модели, а не того, как её используют. Это как регулировать молоток, а не строительство зданий.

Модель — это не продукт. Это сырьё

Возьмите GPT-5. Или Claude 3.7. Или любую open-source модель, которую сегодня качают с Hugging Face. Сама по себе она ничего не делает. Это просто файл с весами.

Опасность возникает в трёх точках:

  • Когда разработчик интегрирует её в систему приёма на работу
  • Когда банк использует её для оценки кредитоспособности
  • Когда военные подключают её к системам целеуказания

Но регуляторы смотрят на размер модели, на количество параметров, на «потенциальные возможности». Абсурд. Это как судить писателя по количеству страниц в его словаре.

Калифорния уже поняла ошибку. И меняет правила

Посмотрите на SB 53 и SB 942. В этих законах нет ни слова про Llama 3.2 или про параметры. Вместо этого — требования к аудиту систем принятия решений, к прозрачности алгоритмов в госзакупках, к обязательному человеческому надзору в критических сферах.

Калифорнийский подход прост: нам всё равно, какая у вас модель. Нам важно, что она делает с реальными людьми.

💡
Этот сдвиг особенно важен для open-source сообщества. Вместо того чтобы запрещать модели, регуляторы начинают требовать документацию к их применению. Как в слое исполнения правил на JSON — наблюдаемое поведение становится ключевым.

Российский комплаенс: как не надо делать

Пока Европа и США спорят о философии регулирования, в России уже начали штрафовать. ФСТЭК 117 и Указ 490 создали ситуацию, где любая нейросеть — это потенциальная угроза информационной безопасности.

Результат? Разработчики либо уходят в тень, либо вообще отказываются от ИИ в коммерческих продуктах. Страх штрафа убивает инновации быстрее любой технологии.

Ирония в том, что российские регуляторы тоже фокусируются на моделях. На их сертификации, на проверке кода. Но полностью игнорируют контекст применения.

Песочницы вместо запретов: британский эксперимент

Великобритания пошла другим путём. Вместо того чтобы писать законы, FCA вместе с Nvidia открыли AI-песочницу.

Финтех-стартапы тестируют там свои алгоритмы. Регуляторы смотрят. Учатся. Собирают данные о реальных рисках.

Это умно. Потому что никто — даже создатели GPT-5 — не знает всех возможных способов злоупотребления их технологией. Зато банки знают, как можно обмануть кредитную систему. И показывают это в контролируемой среде.

Страна/Регион Подход к регулированию Результат для разработчиков (2026)
ЕС (AI Act) Риск-ориентированный, фокус на моделях Бюрократия, замедление инноваций, уход компаний
Калифорния (SB 53/942) Фокус на применении, аудит систем Прозрачность, но рост стоимости compliance
Великобритания (FCA) Экспериментальный, песочницы Быстрое тестирование, обратная связь от регулятора
Россия (ФСТЭК 117) Запретительный, фокус на безопасности Страх внедрения, штрафы, стагнация

Что делать разработчику в 2026 году?

Первое — перестать бояться моделей. Llama 3.2 не опаснее Excel. Опасна система, которая использует Llama для увольнения сотрудников без человеческой проверки.

Второе — документировать не модель, а её применение. Как в «Невидимом ИИ» через MLOps: каждый запуск, каждый контекст, каждое решение.

Третье — готовиться к аудиту применения. Не техническому аудиту кода модели (это бессмысленно), а аудиту бизнес-логики. Как ваша система принимает решения? Где человек в цикле? Как исправляются ошибки?

Смещения в ИИ: меряем последствия, а не намерения

Возьмите гендерные смещения. Регуляторы требуют «справедливых» моделей. Но справедливость — это не свойство файла с весами. Это свойство системы найма, которая использует этот файл.

Измеряйте не bias в embeddings (это академическая забава), а разницу в проценте принятых мужчин и женщин при прочих равных. Вот что важно. Вот что нужно регулировать.

И да, это сложнее. Это требует понимания предметной области. Но именно поэтому регуляторы должны нанимать не AI-специалистов, а экспертов по HR, кредитованию, медицине.

Прогноз: к 2027 году регулирование станет контекстным

Законы типа AI Act умрут. Их заменят отраслевые стандарты:

  • Для медицины — требования к валидации диагностических систем
  • Для финансов — правила аудита кредитных скорингов
  • Для HR — обязательный human-in-the-loop при увольнениях

Модели будут свободно распространяться. Как сегодня распространяются библиотеки машинного обучения. Проблема не в том, что у кого-то есть TensorFlow. Проблема в том, как его используют.

Разработчикам open-source это на руку. Война за регулирование ИИ в США покажет: попытки контролировать модели убивают инновации. Контроль применения — сохраняет.

И последнее: перестаньте думать об ИИ как о магическом чёрном ящике. Думайте о нём как о младшем коллеге. Вы бы доверили стажёру увольнять людей без вашего надзора? Нет. Вот и с ИИ так же.

Регулируйте не стажёра, а процессы, в которых он работает. Всё остальное — бюрократический шум.