Учебные материалы
Как ChatGPT и Gemini помогли написать код на Python: пошаговый гайд для нетехнических специалистов
Пошаговый гайд, как нетехническим специалистам писать код на Python с помощью ChatGPT и Gemini. Итеративная разработка, решение проблем и запуск проекта.
От чат-бота к операционной системе: как правильно использовать ИИ в бизнес-процессах
Переход от точечных ИИ-решений к системной интеграции. Методология внедрения ИИ как операционной системы для бизнес-процессов с примерами и пошаговым планом.
GitHub как операционная система: как увеличить продуктивность команды в 20 раз с помощью структурированного подхода
Пошаговый гайд по превращению GitHub в операционную систему для команды. Структура папок, автоматизация, ИИ-агенты и управление контекстом для 20-кратного роста
10 ошибок новичков при работе с ИИ-помощниками в программировании
Распространенные ошибки разработчиков при работе с ChatGPT, Copilot и другими ИИ-помощниками. Практические советы по повышению эффективности.
ИИ как младший коллега: метафора, которая меняет подход к разработке
Почему метафора «ИИ как младший коллега» меняет парадигму работы разработчика. Практический гайд по промпт-инжинирингу и методологии.
Собрал ферму из 6 б/у видеокарт. Вот как заставить их работать на локальные LLM в 2025
Подробный гайд по сборке и настройке фермы из 6 б/у видеокарт для запуска локальных языковых моделей (LLM) с помощью Ollama и распределенных вычислений.
4 видеокарты RTX Pro 6000 вплотную: тесты температуры и производительности
Практическое руководство по сборке и настройке LLM-станции на 4 видеокартах RTX Pro 6000. Анализ охлаждения, термины, масштабирование и реальные тесты.
Можно ли запустить локальную LLM на 10 ГБ видеопамяти? Гайд по минимальным требованиям VRAM для домашнего сервера
Подробный гайд: какие LLM запустить на 10 ГБ видеопамяти (NVIDIA 3080). Сравнение моделей, квантование, настройка Ollama и оптимизация для домашнего сервера.
Плейбук от Google: как использовать ИИ (Gemini, NotebookLM) для автоматизации скучных ESG-отчетов
Пошаговое руководство по автоматизации ESG-отчетов с помощью ИИ от Google. Prompt-шаблоны, кейсы и инструкции для специалистов по устойчивому развитию.
Кластеризация LLM: как распределить обработку промптов между разным железом (DGX Spark + Mac Studio)
Подробное руководство по созданию гетерогенного кластера LLM для распределения нагрузки между DGX Spark и Mac Studio с использованием llama.cpp и vLLM.
Фикс для Nemotron Nano 3: как отключить навязчивое 'мышление' модели в LM Studio
Пошаговое руководство по отключению навязчивого 'мышления' модели Nemotron Nano 3 в LM Studio через фикс Jinja-шаблона и system prompt.
Генерация тегов на крошечных моделях: какой ИИ на 500M параметров справится с задачей?
Практическое руководство по выбору и использованию маленьких ИИ-моделей для генерации тегов. Сравнение производительности, оптимизация и пошаговая настройка Oll