Брюссель нажимает на тормоза
С 10 февраля 2026 года сотрудникам Европейского парламента официально запрещено использовать ChatGPT, Claude 3.5 Sonnet, GitHub Copilot и любые другие публичные облачные ИИ-сервисы на рабочих устройствах. Решение принято после закрытого отчета службы кибербезопасности EU-CERT, который выявил «неприемлемые риски для конфиденциальности законодательных процессов».
Это не первая попытка ограничить ИИ в ЕС – вспомните GDPR и AI Act. Но впервые запрет касается конкретных инструментов, которые миллионы людей используют ежедневно. Европарламент фактически признал: публичные ИИ-модели несовместимы с защитой государственных и коммерческих тайн.
Запрет распространяется на все версии ChatGPT, включая последнюю GPT-4.5 Turbo, выпущенную в январе 2026 года, и Claude 3.7 Opus от Anthropic. Исключение – корпоративные версии с гарантированным шифрованием данных, но их нет в публичном доступе.
Что не так с вашим промптом?
Вы загружаете в ChatGPT черновик контракта. Просите Claude проанализировать финансовый отчет. Копируете фрагмент кода в Copilot. Кажется безобидно?
Каждый ваш запрос – это данные, которые:
- Хранятся на серверах в США (чаще всего в Вирджинии или Орегоне)
- Могут быть использованы для дообучения моделей – даже если вы отключили эту опцию в настройках (да, это работает не всегда)
- Подпадают под действие US Cloud Act, который позволяет американским властям запрашивать данные у IT-компаний без уведомления пользователей
- Уязвимы для атак вроде ZombieAgent и ShadowLeak, которые превращают ИИ в шпиона
Европарламентарии испугались не на пустом месте. В декабре 2025 года немецкая разведка BND предупредила о случаях, когда промпты с анализом политических решений из ЕС появлялись в тренировочных данных для открытых моделей. Источник утечки – сотрудники, использовавшие публичные ИИ для подготовки документов.
Американский закон против европейских секретов
Cloud Act 2018 года – главная юридическая мина под облачными ИИ. Закон позволяет Министерству юстиции США требовать от технологических компаний данные, хранящиеся в любой точке мира, если компания «подконтрольна юрисдикции США».
OpenAI – американская компания. Anthropic – американская. Microsoft (владелец GitHub Copilot) – американская. Все они обязаны выполнять запросы американских властей.
Представьте сценарий: европейская фармацевтическая компания использует ChatGPT для анализа клинических испытаний нового препарата. Данные уходят в облако OpenAI. Американский регулятор (FDA) или конкурент через суд запрашивает эти данные для «расследования». И получает их.
Или хуже: как в случае с атакой на Claude через MCP, когда хакеры превратили агентский стек в инструмент кибершпионажа.
| Риск | Вероятность | Последствия |
|---|---|---|
| Запрос данных по Cloud Act | Высокая для компаний, работающих с США | Утечка коммерческих тайн, судебные иски |
| Использование данных для обучения | Очень высокая | Ваши промпты могут «всплыть» в ответах другим пользователям |
| Взлом через уязвимости | Средняя, но растет | Прямой доступ к вашим диалогам и файлам |
Код, который помнит всё
Особая история – с разработчиками. GitHub Copilot стал стандартом де-факто, но мало кто читал его политику конфиденциальности до конца.
Когда вы используете Copilot:
- Ваш код отправляется на серверы Microsoft
- Система анализирует его для генерации предложений
- Фрагменты кода могут попадать в тренировочные данные
- Ваша интеллектуальная собственность размывается в облаке
Корпоративная версия Copilot обещает изоляцию данных, но стоит от 19$ в месяц на пользователя. И даже там есть нюансы – как в случае с взломом Copilot через один клик.
А теперь представьте, что вы разрабатываете алгоритм для банка или уникальную библиотеку для научных расчетов. Каждая строка кода – потенциальная утечка.
Что делать, если нельзя, но очень хочется?
Европарламент не просто запретил – он предложил альтернативы. И здесь начинается интересное.
Решение номер один: локальные LLM. Модели, которые работают на ваших серверах, в вашем дата-центре или даже на корпоративном ноутбуке. Данные никуда не уходят – шифрование, изоляция, контроль.
На рынке уже есть варианты:
- Llama 3.3 70B от Meta – работает на собственном железе, полностью изолированно
- Mixtral 8x22B от Mistral AI – французская модель с акцентом на европейское регулирование
- Qwen 2.5 72B от Alibaba – азиатская альтернатива, но со своими рисками
- Специализированные решения вроде Confer с шифрованием в TEE
Но и здесь подводные камни. Локальная модель требует:
- Мощного железа (от 64 ГБ RAM для серьезных моделей)
- Компетенций для развертывания и обслуживания
- Постоянных обновлений и мониторинга безопасности
Второй путь: облачные решения с европейской пропиской. AWS и Azure предлагают регионы в Германии и Франции с гарантией хранения данных в ЕС. Но юридически компании остаются американскими – Cloud Act все еще висит дамокловым мечом.
Третий вариант – гибридные системы, где чувствительные данные обрабатываются локально, а общие запросы идут в облако. Сложно в настройке, но балансирует между безопасностью и функциональностью.
Для работы с особо чувствительными данными (госсекреты, медицинские записи) смотрите в сторону решений вроде Claude Code в AWS GovCloud – изолированные облака с повышенными стандартами безопасности.
Запрет как тренд
Европарламент – только первый звонок. По нашим данным, аналогичные запреты готовят:
- Бундестаг Германии (ожидается в марте 2026)
- Правительство Франции (рабочая группа уже создана)
- Крупные европейские банки: Deutsche Bank, BNP Paribas, Santander
- Фармацевтические гиганты: Roche, Novartis, Bayer
В США ситуация иная – там свои правила. Но и американские компании начинают задумываться. После скандала с «бомбой замедленного действия» в ChatGPT, когда выяснилось, что данные пользователей могут храниться годами, корпоративный сектор нервничает.
Ирония в том, что сами разработчики ИИ понимают риски. В OpenAI после истории с поглощением OpenClaw усилили внутренние правила безопасности. Но публичные сервисы остаются уязвимыми по дизайну – их бизнес-модель строится на данных.
Что будет дальше?
Запрет Европарламента – не конец облачных ИИ. Это сигнал рынку: пора взрослеть.
Ожидайте в 2026-2027:
- Взрывной рост рынка локальных LLM-решений
- Появление «ИИ-посольств» – изолированных облаков для разных юрисдикций
- Ужесточение контрактов с провайдерами ИИ (штрафы за утечки до 4% глобального оборота по GDPR)
- Развитие федеративного обучения, где модели учатся на данных, которые никуда не уходят
Пока же простой совет: если работаете с чем-то ценным – кодом, документами, стратегиями – не пихайте это в публичный ChatGPT. Даже последнюю версию 4.5 Turbo. Даже с отключенной историей. Даже если очень нужно.
Как сказал один из наших источников в EU-CERT: «Лучший способ защитить секрет – не доверять его тому, кто юридически обязан его раскрыть».
И помните: следующей целью регуляторов могут стать ИИ-агенты, которые самостоятельно ходят по интернету и собирают данные. Но это уже другая история.