Научный отдел OpenAI: громкая заявка на пять лет позже
В начале 2025 года OpenAI тихо, но эффектно анонсировала создание подразделения OpenAI for Science. Во главе поставили Кевина Уэйла, бывшего вице-президента по продуктам в Planet Labs. Звучит солидно. Пока не вспомнишь, что Google DeepMind уже лет восемь как кормит научное сообщество прорывами вроде AlphaFold, а Meta и Microsoft десятилетиями вкладываются в академические коллаборации.
Получается классическая история: пока все играли в хоккей, OpenAI строила самый красивый каток. Теперь, когда основные турниры идут полным ходом, они выкатывают на лёд свою команду с криком «Мы тоже умеем!». Ирония в том, что инструмент у них действительно уникальный – GPT-5.2, самая продвинутая на январь 2026 года языковая модель с обновлённым модулем логического вывода и расширенным контекстом до 1 млн токенов.
Цифра на момент публикации (26.01.2026): AlphaFold3 от DeepMind, выпущенный в середине 2025 года, уже предсказывает структуры не только белков, но и ДНК, РНК и малых молекул с точностью, близкой к экспериментальной. OpenAI только начинает свой научный забег.
GPT-5.2 в лабораторном халате: что она реально умеет
Отбросим маркетинг. Что учёные делают с GPT-5.2 прямо сейчас, в январе 2026-го?
- Гипотезы на стероидах. Биологи из Broad Institute загружают в модель тысячи статей по онкологии и данные RNA-seq. GPT-5.2 не просто суммирует – она выявляет скрытые корреляции и предлагает проверяемые гипотезы о новых мишенях для терапии. Одна такая гипотеза уже подтвердилась in vitro.
- Код для симуляций. Физики-теоретики, не владеющие Python на уровне Senior Developer, описывают модель сложной системы на естественном языке. GPT-5.2 пишет оптимизированный код для CUDA, сразу с комментариями и тестами. Правда, как отмечают в одном из наших разборов, качество кодинга у последних версий иногда хромает.
- Литературный штурм. Вместо недель в PubMed – часы диалога. «Собери все исследования с 2023 года о применении CRISPR для редактирования эпигенома при нейродегенеративных заболеваниях, выдели три основных методических подхода и оцени пробелы в знаниях». GPT-5.2 делает это за один прогон.
Проблема номер один: ИИ любит привирать в цитатах
И вот здесь начинается самое интересное. Учёные – народ дотошный. Каждое утверждение требует ссылки. А GPT-5.2, как и её предшественницы, страдает «галлюцинациями». Она может блестяще аргументировать свою точку зрения, подкрепляя её вымышленными цитатами из несуществующих статей в Nature.
Исследование, о котором мы писали в прошлом году, показало: даже в топовых работах, представленных на NeurIPS, детекторы находят сгенерированный ИИ текст с фальшивыми ссылками. OpenAI for Science пытается бороться с этим через систему «контролируемого вывода» в GPT-5.2, где модель обязана указывать источник для каждого фактологического утверждения. Но работает это пока из рук вон плохо.
| Поле науки | Что делает DeepMind (2025-2026) | Что предлагает OpenAI for Science |
|---|---|---|
| Структурная биология | AlphaFold3 – индустриальный стандарт | Гипотезы для экспериментов на основе GPT-5.2 |
| Материаловедение | GNoME – открыл миллионы новых стабильных материалов | Анализ литературных данных и планирование синтеза |
| Математика | FunSearch – решает комбинаторные задачи | Помощь в проверке доказательств и поиске аналогий (подобный кейс был с ранним ChatGPT) |
Так зачем это OpenAI? Ответ лежит в данных
Мотивация OpenAI прозрачна, как слеза. Научное сообщество – это гигантский, неосвоенный источник высококачественных данных и, что важнее, обратной связи. Когда биоинформатик три дня бьётся над промптом, чтобы заставить GPT-5.2 правильно интерпретировать данные масс-спектрометрии, он по сути проводит бесплатное RLHF (обучение с подкреплением на основе человеческой обратной связи) для модели.
А данные… О, данные. Научные статьи, экспериментальные протоколы, сырые результаты – всё это золотая жила для тренировки следующей, GPT-6. Неудивительно, что в OpenAI так любят платить за доступ к реальным рабочим файлам. Учёные – идеальные поставщики контента: умные, внимательные к деталям и производящие информацию, которая по определению должна быть достоверной.
Что делать учёному в 2026 году: инструкция по выживанию
Если вы работаете в лаборатории и хотите попробовать GPT-5.2 без разочарований, запомните три правила.
1 Не спрашивай факты – проси думать
Не «Каков механизм действия препарата X?». Модель может нагло сфабриковать его. Вместо этого: «Вот экспериментальные данные по препарату X (графики, цифры). Какие три наиболее правдоподобных гипотезы могут объяснить наблюдаемый эффект?». Переводите её в режим интерпретатора, а не энциклопедии.
2 Используй силу контекста в 1 млн токенов
Загружайте прямо в чат PDF-ки со статьями, свои заметки, куски кода. GPT-5.2 сможет держать в голове целый исследовательский проект. Это её главное тактическое преимущество перед узкоспециализированными инструментами. Как грамотно это делать, мы разбирали в материале про секретные промпты от OpenAI.
3 Помни про DeepMind
Для задач, где нужен не язык, а точное предсказание структуры или свойств, идите сразу к специалистам. Пока GPT-5.2 рассуждает о потенциальной стабильности нового катализатора, AlphaFold3 или GNoME уже дадут вам конкретные координаты атомов и энергию связи. Британцы, кстати, активно демократизируют доступ к своим инструментам.
OpenAI for Science – это не благотворительность. Это стратегический захват новой территории, где уже давно хозяйничают другие. Их оружие – универсальность и способность к абстрактному мышлению. Слабое место – отсутствие глубины и проверенной десятилетиями репутации в науке, как у того же DeepMind.
Учёным от этой гонки гигантов одна сплошная выгода. Берите лучшее от всех. Используйте GPT-5.2 как супер-ассистента для генерации идей и работы с текстом, а специализированные AI-инструменты – для решения конкретных вычислительных задач. И никогда, слышите, никогда не верьте ИИ на слово без перепроверки. Даже если это самая новая модель от OpenAI.
Прогноз на 2027 год: Кевин Уэйл либо превратит OpenAI for Science в must-have инструмент для каждой уважающей себя лаборатории, либо команду тихо расформируют, чтобы сосредоточиться на более прибыльных предприятиях – вроде интеграции GPT в следующую версию космического железа от Илона Маска. Ставлю на второй вариант.