Попробуйте засунуть в эмбеддинг-модель инструкцию на тамильском, тибетском или суахили — и получить на выходе вектор, который не перепутает её с рецептом борща. До недавнего времени это было либо дорого (OpenAI, Cohere), либо криво (старые open-source модели с контекстом в 512 токенов). IBM решила, что хватит. Granite Embedding Multilingual R2 — это не просто очередная открытая модель под Apache 2.0. Это две модели (97M и 311M параметров), которые переваривают 32 768 токенов, понимают более 200 языков и поддерживают Matryoshka-эмбеддинги. И да, они честно обгоняют многие коммерческие аналоги на MTEB.
14 Май 2026
•
Инструмент
Granite Embedding Multilingual R2: IBM выкатила эмбеддинги, от которых у конкурентов подгорает. 32K контекст, Apache 2.0, 200+ языков
IBM выпустила Granite Embedding Multilingual R2 — открытые эмбеддинги с Apache 2.0, 32K контекстом, 200+ языками и поддержкой Matryoshka. Разбираем, почему это