Кризис данных для ИИ в 2025-2027: конец «сырого интернета» и будущее LLM | AiManual
AiManual Logo Ai / Manual.
29 Янв 2026 Новости

Интернет закончился. Что будет есть ИИ?

Качественные данные для обучения ИИ заканчиваются. Почему AI-генерация стала шумом, что такое курированные датасеты и как выживут большие модели к 2027 году. По

Мы выпили весь интернет. До дна

В 2025 году случилось то, о чем все шептались с 2022-го. Сырые, человеческие, качественные данные для обучения больших языковых моделей закончились. Официально. Не в смысле «стало меньше», а в прямом - все тексты, книги, научные статьи, форумы, новостные архивы, которые можно было скормить ИИ без серьезных юридических последствий, уже скачаны, очищены и использованы.

Исследование Epoch AI от октября 2025 года показывает: высококачественные текстовые данные на английском языке будут исчерпаны между 2026 и 2032 годами. Для китайского - к 2025-2027. Мы уже наступили на эту временную шкалу.

Представьте себе золотую лихорадку, где все золото уже выкопано. Только вместо золота - человеческие мысли, изложенные в цифровой форме. GPT-4, Claude 3.5, Gemini 2.0, DeepSeek-R1 (последняя версия на январь 2026) - все они выросли на этом сырье. Следующие поколения? Им придется питаться чем-то другим.

Тупиковая петля: ИИ ест свой же мусор

Первый инстинкт - начать кормить новые модели текстами, сгенерированными старыми моделями. Звучит логично? На практике это катастрофа.

Команда из Стэнфорда провела эксперимент в ноябре 2025-го. Они взяли модель, обученную только на синтетических данных (текстах от других ИИ), и попросили ее генерить новые данные. Через пять «поколений» модель начала выдавать бессвязный бред. Феномен назвали «инбриндинговой деградацией» - ИИ становится тупее, питаясь собственными отходами.

💡
К концу 2025 года, по данным сайта arXiv.org, более 30% всех новых технических статей содержали фрагменты, сгенерированные ИИ. Это создает опасный замкнутый круг: модели обучаются на текстах, которые сами же создали.

Проблема в том, что ИИ-генерация - это не новые знания. Это рекомбинация уже усвоенных паттернов. Нулевая энтропия. Как если бы вы пытались написать новую симфонию, слушая только кавер-версии собственных песен.

Курирование как новая нефть

Если сырья нет, его ценность растет. В 2026 году самым дорогим ресурсом в ИИ стали не вычислительные мощности (хотя они тоже дорожают), а курированные датасеты.

Что это такое? Не просто тонны текста, а тщательно отобранные, размеченные, проверенные человеком данные. Учебники по математике с пошаговыми решениями. Судебные протоколы с аннотациями юристов. Диалоги терапевтов с пациентами (анонимизированные). Научные эксперименты с полными методиками.

Тип данных Статус на 2026 Кто владеет
Общедоступный интернет-текст Исчерпан Все (но уже использовано)
Научные статьи (arXiv, PubMed) Почти исчерпан Академические институты
Книги (официально оцифрованные) Юридически заблокирован Издательства
Курированные датасеты (медицина, право, наука) Золотая жила Корпорации, стартапы

Стартапы теперь продают не модели, а данные. Компания вроде Scale AI или новый игрок - DataCurate - нанимает армию экспертов (да, живых людей) для создания датасетов. Стоимость? От 500 тысяч до 5 миллионов долларов за специализированный набор. Это новая экономика.

Что делают большие игроки? Прячут карты

OpenAI, Anthropic, Google - все они перешли в режим «запасания». Они не афишируют, на чем тренируют новые модели. GPT-5? Claude 4? Скорее всего, на смеси из:

  • Собственных синтетических данных (но с хитрыми трюками, чтобы избежать деградации)
  • Приватных корпоративных данных (партнерства с Microsoft, Salesforce и т.д.)
  • Краудсорсинговых платформ (платят людям за создание контента специально для ИИ)
  • Симуляций (генерируют диалоги и сценарии через многократные прогоны моделей)

Но есть проблема: даже эти источники ограничены. И здесь начинается самое интересное.

2026-2027: три пути выживания

Сценарии, которые уже разыгрываются у нас на глазах.

1 Эффективность вместо объема

Забудьте про тренировку моделей на триллионах токенов. Новый тренд - обучение на малых, но идеальных данных. Техника «контрастивного обучения» позволяет моделям учиться на сравнении хороших и плохих примеров. Вместо 10 000 случайных статей - 1000 идеально составленных диалогов.

Это меняет архитектуру. Модели становятся меньше, но умнее. Пример? Недавний релиз Phi-4 от Microsoft - модель на 3 млрд параметров, которая по некоторым тестам бьет 70-миллиардные. Почему? Потому что ее кормили не всем подряд, а специально приготовленными «учебными примерами».

2 Мультимодальность как спасательный круг

Текста нет? Используем видео, аудио, изображения, сенсорные данные. Модель LLaVA-Next (релиз декабрь 2025) обучается на видео с описаниями действий. Она не просто «видит» кошку, она понимает, что кошка прыгает, мяукает, царапает когтями ковер.

Это возвращает нас к тому, как учатся люди. Мы не читаем триллионы слов. Мы взаимодействуем с миром. ИИ начинает делать то же самое. Технологии вроде Multi-modal RAG из исследовательской статьи становятся промышленным стандартом.

3 Распределенное обучение и краудсорсинг

Если у одной компании нет данных, может, они есть у миллионов людей? Проекты вроде OpenAssistant 2.0 собирают анонимизированные данные от добровольцев. Вы играете в игру - создаете диалоги, описываете изображения, решаете задачи. Ваш вклад идет в общий датасет.

Это этически сложно (конфиденциальность!), но неизбежно. Как показывает исследование влияния LLM на работу, люди уже массово взаимодействуют с ИИ. Эти взаимодействия - новый источник данных.

Что это значит для нас? Для всех?

Во-первых, готовьтесь к замедлению прогресса. Не к остановке, нет. Но к 2027 году мы не увидим скачков вроде «от GPT-3 к GPT-4». Будет постепенное улучшение существующих моделей.

Во-вторых, специализированные ИИ выиграют гонку. Модель, обученная только на медицинских данных, будет полезнее общего ChatGPT в диагностике. Юридический ИИ, натренированный на судебных решениях, заменит стажеров в фирмах. Как мы писали в материале про офлайн-ИИ 2025, локальные специализированные модели уже сегодня часто эффективнее облачных монстров.

В-третьих, данные станут валютой. Ваши переписки (анонимизированные), ваши рабочие документы, ваши творческие наброски - все это может превратиться в тренировочный материал. Вопрос, согласитесь ли вы на это.

Прогноз от аналитиков a16z на январь 2026: к 2027 году 60% стоимости создания ИИ-модели будет приходиться на сбор и подготовку данных, а не на вычисления. Инфраструктурные компании вроде Inferact (бывший vLLM) будут расти, но компании, владеющие уникальными датасетами, станут новыми единорогами.

Ироничный поворот: возвращение человека в цикл

Самое смешное во всей этой истории? После десяти лет автоматизации, ИИ снова делает человеческий труд ценным.

Кто будет создавать курированные датасеты? Люди. Кто будет проверять, что сгенерированные тексты не бред? Люди. Кто будет ставить метки на видео для обучения мультимодальных моделей? Люди.

Это не возврат к прошлому. Это симбиоз. ИИ помогает людям работать эффективнее, люди создают данные для обучения ИИ. Замкнутый круг, но уже здоровый.

Как отмечалось в статье о потере работы из-за ИИ, одни профессии исчезают, другие - возникают. Data curator, synthetic data engineer, AI-human interaction designer - вакансии 2026 года, которых не было в 2023-м.

Что делать прямо сейчас? Если вы работаете с ИИ - начинайте собирать свои данные. Ваши промпты, ответы модели, исправления, фидбэк. Это ваш актив. Если вы компания - инвестируйте не только в модели, но и в создание собственных датасетов. Как те стартаперы, которые бросают MIT ради AI-стартапа, понимая, что уникальные данные важнее диплома.

Интернет как бесконечный источник знаний закончился. Теперь знания нужно выращивать. Осознанно. С умом. Почти как в старые добрые времена - до того, как все стало большими данными.