Корейские LLM 2026: K-EXAONE 236B, Mi:dm, Sovereign AI - обзор и сравнение | AiManual
AiManual Logo Ai / Manual.
24 Янв 2026 Новости

Корейский прорыв: как K-EXAONE, Mi:dm и Sovereign AI бросают вызов OpenAI

Полный разбор корейских локальных LLM на 24.01.2026: K-EXAONE 236B от LG, Mi:dm от KT, государственная инициатива Sovereign AI. Технические детали, сравнение с

Корейский ответ ChatGPT: не просто копия, а другой подход

Пока весь мир обсуждает последние апдейты GPT-5 и Gemini Ultra, в Южной Корее происходит тихая революция. Тихая, но с параметрами в 236 миллиардов. Местные технологические гиганты - LG, Naver, SK Telecom, KT - выпустили собственные open-weight модели, которые не просто повторяют западные решения, а предлагают что-то принципиально иное. Многоязычность с акцентом на корейский. Архитектура MoE (Mixture of Experts), которая в теории должна работать лучше, но на практике... Об этом позже.

На 24.01.2026 корейский рынок LLM представлен тремя основными игроками: K-EXAONE 236B (LG/Naver), Mi:dm (KT), и моделями в рамках Sovereign AI Initiative (государственно-частное партнерство). Все они доступны с открытыми весами.

K-EXAONE 236B: корейский монстр, который едва помещается в память

Представьте модель размером с GPT-4, но оптимизированную специально для корейского языка. Теперь добавьте поддержку еще пяти языков (английский, японский, китайский, немецкий, французский) и архитектуру MoE. Получится K-EXAONE 236B - флагман корейской LLM-индустрии на начало 2026 года.

Что это значит на практике? Если вы запускаете EXAONE MoE в llama.cpp, вам потребуется минимум 80 ГБ оперативной памяти. Не VRAM, а именно RAM. Это не опечатка. Модель настолько огромна, что даже специализированные инструменты вроде LM Studio с ней справляются с трудом.

Модель Параметры Архитектура Языки Минимальные требования
K-EXAONE 236B 236 млрд MoE (16 экспертов) 6 (корейский приоритет) 80 ГБ RAM
Mi:dm 72B 72 млрд Dense Transformer 2 (корейский, английский) 32 ГБ RAM
Sovereign AI Base 13B 13 млрд Dense Transformer 1 (корейский) 16 ГБ RAM

Зачем такие размеры? LG и Naver утверждают, что для качественной обработки корейского языка с его сложной грамматикой и системой вежливости (존댓말) нужна именно такая модель. В теории звучит логично. На практике - попробуйте запустить ее через llama.cpp или vLLM на домашнем ПК. Удачи.

Mi:dm от KT: меньше, умнее, специализированнее

Пока LG строит монстра, KT пошла другим путем. Mi:dm - это "всего" 72 миллиарда параметров, но с фокусом на диалоговые сценарии и корпоративное использование. Модель обучали на датасетах, где 60% - корейский контент, 40% - английский. Никаких других языков. Зато качество генерации на корейском, по заявлениям разработчиков, сравнимо с GPT-4.5 Turbo (да, на январь 2026 это уже актуальная версия).

Что интересно: Mi:dm изначально заточена под интеграцию с корпоративными системами. API документация читается как инструкция для enterprise-разработчиков, а не для энтузиастов. Хотите запустить ее локально? Придется повозиться с Ollama или другими инструментами, потому что готовых GUI-оберток как для западных моделей почти нет.

Важный нюанс: ни K-EXAONE, ни Mi:dm не имеют официальных веб-интерфейсов типа ChatGPT. Это чистые модели, которые нужно интегрировать самостоятельно. Для тестирования придется использовать продвинутые приложения для локальных LLM или писать свой код.

Sovereign AI Initiative: когда государство говорит "надо"

А вот здесь начинается самое интересное. Sovereign AI Initiative - это не модель, а государственная программа с бюджетом в 4.5 триллиона вон (примерно 3.3 миллиарда долларов) на 2024-2026 годы. Цель: создать полностью независимую от западных технологий AI-экосистему. На бумаге - грандиозно. На практике...

К январю 2026 года в рамках инициативы выпущены:

  • Sovereign AI Base 13B - базовая модель только на корейском
  • Sovereign AI Code 7B - специализированная модель для генерации кода
  • Набор датасетов KoLLM (Korean Large Language Model Dataset) объемом 2.5 терабайта

Проблема в том, что эти модели отстают от коммерческих аналогов примерно на поколение. Sovereign AI Base 13B по качеству сравнима с Llama 2 13B, но не с Llama 3 70B или более новыми версиями. Государственные проекты, что уж тут скрывать, часто страдают бюрократией и медленной разработкой.

Но есть и плюс: все модели Sovereign AI Initiative распространяются под максимально открытыми лицензиями. Хотите дообучить модель на своих данных? Пожалуйста. Хотите использовать в коммерческом продукте? Без проблем. Никаких ограничений типа коммерческой лицензии от Meta.

Зачем это все нужно? (Спойлер: не только для патриотизма)

Первая причина - языковая. Корейский язык в западных LLM обрабатывается как второстепенный. Система вежливости, контекстные окончания, культурные особенности - все это теряется при переводе через английский. K-EXAONE и Mi:dm работают с корейским нативно.

Вторая причина - данные. Корейские компании не хотят отправлять свои корпоративные данные в облака OpenAI или Google. Локальная модель на своем сервере - другое дело. Особенно если эта модель понимает специфику корейского бизнес-этикета.

Третья причина - геополитика. Зависимость от американских AI-технологий рассматривается как стратегический риск. Sovereign AI Initiative - это попытка создать страховочную сетку. Даже если качество моделей пока не дотягивает до GPT-5, инфраструктура и экспертиза уже создаются.

💡
Если вы хотите попробовать корейские LLM, начните с Sovereign AI Base 13B - она требует меньше ресурсов и проще запускается. Для серьезной работы с корейским текстом лучше подойдет Mi:dm 72B. K-EXAONE 236B оставьте для исследовательских целей или если у вас есть сервер с 512 ГБ RAM.

Что будет дальше? (Прогноз на 2026-2027)

Корейские LLM не заменят GPT или Gemini в ближайшие год-два. Но они займут свою нишу:

  1. Корпоративный сектор Южной Кореи будет массово переходить на локальные модели к концу 2026 года
  2. Появятся специализированные модели для медицины, права и финансов на корейском языке
  3. Архитектура MoE станет стандартом для многоязычных моделей выше 100B параметров
  4. Интеграция с аппаратным ускорением (специальные AI-чипы от Samsung) ускорит инференс в 3-5 раз

Самая большая проблема корейских LLM на январь 2026 - экосистема. Мало выпустить модель, нужно создать вокруг нее инструменты, документацию, сообщество. Пока что запустить локальную LLM проще с западными моделями, даже если они хуже понимают корейский.

Но тренд очевиден: мир AI становится многополярным. После Китая (Ernie, Qwen) и ОАЭ (Falcon) Южная Корея строит свою AI-империю. Получится ли? Узнаем к концу 2026 года, когда выйдет следующее поколение моделей. А пока - скачивайте веса, тестируйте и готовьте много оперативной памяти.