Европейский AI Act провалился в 2025 году. И вот почему это хорошо
Помните 2024 год? Все говорили про риск-ориентированный подход. Генеративные модели с высоким риском, модели с ограниченным риском, минимальный риск. Регуляторы в Брюсселе думали, что можно классифицировать ИИ как лекарства или самолёты.
К февралю 2026 года стало очевидно: они просчитались. Кардинально.
Ключевой провал: регуляторы пытались оценить опасность самой модели, а не того, как её используют. Это как регулировать молоток, а не строительство зданий.
Модель — это не продукт. Это сырьё
Возьмите GPT-5. Или Claude 3.7. Или любую open-source модель, которую сегодня качают с Hugging Face. Сама по себе она ничего не делает. Это просто файл с весами.
Опасность возникает в трёх точках:
- Когда разработчик интегрирует её в систему приёма на работу
- Когда банк использует её для оценки кредитоспособности
- Когда военные подключают её к системам целеуказания
Но регуляторы смотрят на размер модели, на количество параметров, на «потенциальные возможности». Абсурд. Это как судить писателя по количеству страниц в его словаре.
Калифорния уже поняла ошибку. И меняет правила
Посмотрите на SB 53 и SB 942. В этих законах нет ни слова про Llama 3.2 или про параметры. Вместо этого — требования к аудиту систем принятия решений, к прозрачности алгоритмов в госзакупках, к обязательному человеческому надзору в критических сферах.
Калифорнийский подход прост: нам всё равно, какая у вас модель. Нам важно, что она делает с реальными людьми.
Российский комплаенс: как не надо делать
Пока Европа и США спорят о философии регулирования, в России уже начали штрафовать. ФСТЭК 117 и Указ 490 создали ситуацию, где любая нейросеть — это потенциальная угроза информационной безопасности.
Результат? Разработчики либо уходят в тень, либо вообще отказываются от ИИ в коммерческих продуктах. Страх штрафа убивает инновации быстрее любой технологии.
Ирония в том, что российские регуляторы тоже фокусируются на моделях. На их сертификации, на проверке кода. Но полностью игнорируют контекст применения.
Песочницы вместо запретов: британский эксперимент
Великобритания пошла другим путём. Вместо того чтобы писать законы, FCA вместе с Nvidia открыли AI-песочницу.
Финтех-стартапы тестируют там свои алгоритмы. Регуляторы смотрят. Учатся. Собирают данные о реальных рисках.
Это умно. Потому что никто — даже создатели GPT-5 — не знает всех возможных способов злоупотребления их технологией. Зато банки знают, как можно обмануть кредитную систему. И показывают это в контролируемой среде.
| Страна/Регион | Подход к регулированию | Результат для разработчиков (2026) |
|---|---|---|
| ЕС (AI Act) | Риск-ориентированный, фокус на моделях | Бюрократия, замедление инноваций, уход компаний |
| Калифорния (SB 53/942) | Фокус на применении, аудит систем | Прозрачность, но рост стоимости compliance |
| Великобритания (FCA) | Экспериментальный, песочницы | Быстрое тестирование, обратная связь от регулятора |
| Россия (ФСТЭК 117) | Запретительный, фокус на безопасности | Страх внедрения, штрафы, стагнация |
Что делать разработчику в 2026 году?
Первое — перестать бояться моделей. Llama 3.2 не опаснее Excel. Опасна система, которая использует Llama для увольнения сотрудников без человеческой проверки.
Второе — документировать не модель, а её применение. Как в «Невидимом ИИ» через MLOps: каждый запуск, каждый контекст, каждое решение.
Третье — готовиться к аудиту применения. Не техническому аудиту кода модели (это бессмысленно), а аудиту бизнес-логики. Как ваша система принимает решения? Где человек в цикле? Как исправляются ошибки?
Смещения в ИИ: меряем последствия, а не намерения
Возьмите гендерные смещения. Регуляторы требуют «справедливых» моделей. Но справедливость — это не свойство файла с весами. Это свойство системы найма, которая использует этот файл.
Измеряйте не bias в embeddings (это академическая забава), а разницу в проценте принятых мужчин и женщин при прочих равных. Вот что важно. Вот что нужно регулировать.
И да, это сложнее. Это требует понимания предметной области. Но именно поэтому регуляторы должны нанимать не AI-специалистов, а экспертов по HR, кредитованию, медицине.
Прогноз: к 2027 году регулирование станет контекстным
Законы типа AI Act умрут. Их заменят отраслевые стандарты:
- Для медицины — требования к валидации диагностических систем
- Для финансов — правила аудита кредитных скорингов
- Для HR — обязательный human-in-the-loop при увольнениях
Модели будут свободно распространяться. Как сегодня распространяются библиотеки машинного обучения. Проблема не в том, что у кого-то есть TensorFlow. Проблема в том, как его используют.
Разработчикам open-source это на руку. Война за регулирование ИИ в США покажет: попытки контролировать модели убивают инновации. Контроль применения — сохраняет.
И последнее: перестаньте думать об ИИ как о магическом чёрном ящике. Думайте о нём как о младшем коллеге. Вы бы доверили стажёру увольнять людей без вашего надзора? Нет. Вот и с ИИ так же.
Регулируйте не стажёра, а процессы, в которых он работает. Всё остальное — бюрократический шум.