Лучшие локальные LLM с Tool Calling в 2025: сравнение и гайд | AiManual
AiManual Logo Ai / Manual.
28 Дек 2025 Гайд

Обзор лучших LLM с поддержкой Tool Calling для локального запуска в 2025

Полный обзор LLM с вызовом инструментов для локального запуска. Сравнение моделей, требования к железу, пошаговая настройка и практические примеры.

Почему Tool Calling — это революция для локальных LLM?

Если вы до сих пор используете локальные языковые модели только для генерации текста, вы упускаете 80% их потенциала. Tool Calling (вызов инструментов) — это технология, которая превращает пассивную языковую модель в активного агента, способного взаимодействовать с внешним миром.

💡
Tool Calling позволяет LLM не просто отвечать на вопросы, а выполнять действия: искать информацию в интернете, управлять файлами, отправлять email, работать с API и даже контролировать умный дом. Это фундамент для создания по-настоящему интеллектуальных персональных ассистентов.

Проблема: ограниченность традиционных локальных LLM

Классические локальные модели, даже самые мощные, страдают от двух ключевых ограничений:

  • Контекстуальная изоляция — модель знает только то, что было в её обучающих данных или промпте
  • Пассивность — она может только генерировать текст, но не выполнять действия

В 2025 году эти ограничения снимаются благодаря моделям с нативной поддержкой Tool Calling. Но какую модель выбрать для своих задач? Давайте разбираться.

Критерии сравнения моделей с Tool Calling

При выборе модели для локального запуска с поддержкой вызова инструментов нужно учитывать несколько ключевых факторов:

Критерий Что оцениваем Важность
Качество Tool Calling Точность определения, когда вызывать инструмент, правильность заполнения параметров Высокая
Требования к железу Объём VRAM/оперативной памяти, поддержка квантования Высокая
Скорость вывода Tokens per second (токенов в секунду) Средняя
Поддержка фреймворков Ollama, llama.cpp, vLLM, MLX Средняя
Стоимость лицензии Open Source vs проприетарные Высокая

Топ-5 моделей с Tool Calling для локального запуска в 2025

1. GLM-4-9B-Chat-Tool (Zhipu AI)

Китайская модель, которая в 2025 году стала настоящим открытием для сообщества. При размере всего 9 миллиардов параметров демонстрирует качество Tool Calling, сравнимое с GPT-4.

Сильные стороны: Отличное соотношение размер/качество, нативная поддержка китайского и английского языков, хорошо работает с квантованными версиями (до Q4_K_M без существенной потери качества).

Требования к железу:

  • Полная версия: ~18 ГБ VRAM
  • Q4_K_M: ~5 ГБ VRAM
  • Рекомендуется: RTX 3090/4090 или аналоги

2. Qwen2.5-7B-Instruct-Tool (Alibaba)

Обновлённая версия Qwen с улучшенной поддержкой Tool Calling. Особенность — отличная работа с цепочками вызовов (multiple tool calls в одном запросе).

# Пример вызова нескольких инструментов через Qwen2.5
import requests

prompt = "Проверь погоду в Москве, затем создай календарное событие на завтра в 15:00"
# Модель самостоятельно определит, что нужно:
# 1. Вызвать get_weather(city="Москва")
# 2. Вызвать create_calendar_event(date="завтра", time="15:00", title="Встреча")

3. DeepSeek-V3-Tool-16B (深度求索)

Мощная 16-миллиардная модель с расширенным контекстом (128K токенов). Идеальна для сложных агентов, работающих с большими документами.

Внимание: Требует значительных ресурсов. Полная версия занимает ~32 ГБ VRAM. Обязательно используйте квантование или стратегии масштабирования для запуска на потребительском железе.

4. Llama-3.3-8B-Tool-Instruct (Meta)

Официальная инструментальная версия от Meta. Отличается стабильностью и предсказуемостью работы, что критично для production-систем.

5. Liquid AI LFM2-2.6B (Компактный чемпион)

Если у вас ограниченные ресурсы, но нужна поддержка Tool Calling — это ваш выбор. Всего 2.6 миллиарда параметров, но удивительно хорошее качество определения необходимости вызова инструментов.

Подробнее об этой модели читайте в нашем отдельном обзоре Liquid AI LFM2-2.6B.

Сравнительная таблица моделей

Модель Размер (параметры) Min VRAM Качество TC Скорость Лицензия
GLM-4-9B-Chat-Tool 9B 5 ГБ (Q4) ⭐⭐⭐⭐⭐ 45 t/s Apache 2.0
Qwen2.5-7B-Instruct-Tool 7B 4 ГБ (Q4) ⭐⭐⭐⭐ 55 t/s MIT
DeepSeek-V3-Tool-16B 16B 10 ГБ (Q4) ⭐⭐⭐⭐⭐ 25 t/s MIT
Llama-3.3-8B-Tool-Instruct 8B 4.5 ГБ (Q4) ⭐⭐⭐⭐ 50 t/s Llama 3.3
Liquid AI LFM2-2.6B 2.6B 2 ГБ (Q4) ⭐⭐⭐ 80 t/s Apache 2.0

Пошаговый гайд: запуск GLM-4-9B-Chat-Tool через Ollama

1 Установка Ollama и загрузка модели

# Установка Ollama (Linux/macOS)
curl -fsSL https://ollama.ai/install.sh | sh

# Загрузка квантованной версии GLM-4-9B
ollama pull glm4:9b-chat-tool-q4_K_M

# Проверка установки
ollama list

2 Создание Modelfile с определением инструментов

Создайте файл Modelfile.glm4-tool:

FROM glm4:9b-chat-tool-q4_K_M

# Определяем доступные инструменты (tools)
PARAMETER temperature 0.7

# Системный промпт с описанием инструментов
SYSTEM """
Ты — ассистент с доступом к следующим инструментам:

1. web_search(query): Поиск информации в интернете
2. calculator(expression): Вычисление математических выражений
3. get_weather(city, date): Получение прогноза погоды
4. send_email(to, subject, body): Отправка email

Используй инструменты, когда это необходимо для выполнения запроса пользователя.
"""

3 Создание кастомной модели и запуск сервера

# Создаём модель с настройками
ollama create glm4-tool-assistant -f Modelfile.glm4-tool

# Запускаем сервер Ollama
ollama serve &

# Или запускаем модель напрямую
ollama run glm4-tool-assistant

4 Интеграция с Python через API

import requests
import json

class ToolCallingAgent:
    def __init__(self, model_name="glm4-tool-assistant"):
        self.base_url = "http://localhost:11434/api/generate"
        self.model = model_name
    
    def call_model(self, prompt):
        payload = {
            "model": self.model,
            "prompt": prompt,
            "stream": False,
            "options": {
                "temperature": 0.7,
                "num_predict": 512
            }
        }
        
        response = requests.post(self.base_url, json=payload)
        return response.json()
    
    def execute_tool_call(self, tool_name, parameters):
        """Выполнение реального инструмента по вызову модели"""
        if tool_name == "calculator":
            return eval(parameters["expression"])
        elif tool_name == "web_search":
            # Интеграция с поисковым API
            return self.perform_web_search(parameters["query"])
        # ... другие инструменты
    
    def process_query(self, user_query):
        """Основной цикл обработки запроса с Tool Calling"""
        response = self.call_model(user_query)
        
        # Парсим JSON ответ, содержащий вызов инструмента
        try:
            tool_call = json.loads(response["response"])
            if "tool" in tool_call:
                result = self.execute_tool_call(
                    tool_call["tool"], 
                    tool_call["parameters"]
                )
                # Отправляем результат обратно в модель
                follow_up = f"Результат выполнения {tool_call['tool']}: {result}"
                return self.call_model(follow_up)["response"]
        except:
            return response["response"]

# Использование
agent = ToolCallingAgent()
result = agent.process_query("Сколько будет 15% от 850?")
print(result)

Практические примеры использования Tool Calling

Пример 1: Персональный исследовательский ассистент

Модель с доступом к поиску в интернете и базе данных научных статей может:

  • Искать актуальные исследования по теме
  • Анализировать и суммировать статьи
  • Создавать библиографии в нужном формате
  • Отслеживать новые публикации

Пример 2: Автоматизация рабочих процессов

# Конвейер обработки документов с Tool Calling
prompt = """
1. Найди все PDF-файлы в папке /documents
2. Извлеки из них таблицы с финансовыми данными
3. Создай сводный отчёт в Excel
4. Отправь отчёт на email manager@company.com
"""

# Модель последовательно вызовет:
# 1. list_files(directory, extension=".pdf")
# 2. extract_tables_from_pdf(file_path)
# 3. create_excel_report(data)
# 4. send_email(to, subject, attachment)

Пример 3: Умный домашний ассистент

Интеграция с IoT-устройствами превращает LLM в голосового ассистента, который действительно может управлять вашим домом. Узнайте больше в нашем гайде «Как собрать голосового ассистента на одной видеокарте».

Оптимизация производительности и квантование

Большинство моделей с Tool Calling требуют значительных ресурсов. Вот ключевые стратегии оптимизации:

  1. Используйте квантованные версии GGUF — формат, специально разработанный для эффективного запуска на потребительском железе. Подробнее о квантовании читайте в статье «Что такое квантизация GGUF?»
  2. Выбирайте правильный уровень квантования:
    • Q2_K — максимальная экономия памяти (качество страдает)
    • Q4_K_M — оптимальный баланс (рекомендуется)
    • Q6_K — почти без потерь качества
  3. Используйте эффективные фреймворкиllama.cpp для CPU, vLLM для GPU кластеров

Распространённые ошибки и их решение

Ошибка 1: Модель игнорирует инструменты и отвечает текстом.
Решение: Убедитесь, что в системном промпте чётко описаны инструменты и их назначение. Используйте специальные промпты для тестирования Tool Calling.

Ошибка 2: Модель вызывает несуществующие инструменты или неправильно заполняет параметры.
Решение: Обучите модель на примерах правильных вызовов через few-shot prompting. Предоставьте 3-5 примеров корректного использования каждого инструмента.

Ошибка 3: Высокое потребление памяти при цепочках вызовов.
Решение: Ограничивайте максимальную длину цепочки, используйте механизмы очистки контекста между вызовами. Подробнее в гайде по избеганию ошибок при локальном запуске LLM.

FAQ: Часто задаваемые вопросы

❓ Какая модель лучше всего подходит для начинающих?

GLM-4-9B-Chat-Tool — оптимальный выбор. Хорошее качество Tool Calling, умеренные требования к железу, подробная документация.

❓ Можно ли запустить эти модели на Mac с Apple Silicon?

Да, большинство моделей поддерживают запуск через MLX (фреймворк Apple). Особенно хорошо работает Liquid AI LFM2-2.6B. Смотрите наш гайд «Как запустить модели на Mac с помощью MLX».

❓ Нужна ли отдельная видеокарта для Tool Calling?

Не обязательно. Многие модели с квантованием GGUF хорошо работают на CPU. Но для лучшей производительности рекомендуются GPU с 8+ ГБ VRAM. Сравнение карт смотрите в статье «RTX Pro 6000 vs RTX 4090 для локальных LLM».

❓ Как обеспечить безопасность при вызове внешних инструментов?

1. Используйте sandbox-окружение для выполнения кода
2. Ограничивайте доступ к файловой системе
3. Валидируйте все входные параметры
4. Ведите логи всех вызовов инструментов

Заключение и перспективы на 2026

2025 год стал переломным для локальных LLM с поддержкой Tool Calling. Модели стали достаточно компактными для запуска на потребительском железе, но достаточно умными для выполнения реальных задач.

В 2026 году ожидаем:

  • Появление специализированных моделей для конкретных доменов (медицина, финансы, программирование)
  • Улучшение поддержки мультимодальности в сочетании с Tool Calling
  • Стандартизацию API для инструментов между разными моделями
  • Интеграцию с аппаратными ускорителями нового поколения

Уже сегодня вы можете начать создавать своих интеллектуальных агентов. Выберите модель под ваши задачи и ресурсы, следуйте нашему гайду — и ваш персональный ИИ-ассистент с возможностью взаимодействия с реальным миром будет готов к работе.

🚀
Следующий шаг: Начните с GLM-4-9B-Chat-Tool через Ollama. Это самый быстрый способ познакомиться с технологией Tool Calling без сложных настроек. Уже через 30 минут у вас будет работающий прототип интеллектуального ассистента.