Неверный пароль
Опыт применения LLM в инфраструктуре и разработке
Роман Бармин
АО «НАТ Казахстан»
Краткий ликбез: чем отличается от «просто чат-бота», что умеет и чего не умеет
Когда какие использовать, плюсы и минусы каждого подхода
K8s, Ansible, CI/CD, анализ логов — как LLM помогает в ежедневных задачах
Что можно и нельзя отправлять в нейросеть, подводные камни, галлюцинации
Инструменты, настройка, первые шаги — порог входа ниже, чем кажется
Large Language Model — большая языковая модель, обученная на огромных объёмах текста. Понимает контекст, генерирует код, анализирует логи, пишет документацию.
| Модель | Тип |
|---|---|
| Claude 4 Opus / Sonnet | Облако |
| GPT-4o / o3 | Облако |
| Gemini 2.5 Pro | Облако |
| Llama 3.3 70B | Локально |
| Qwen 2.5 Coder 32B | Локально |
| DeepSeek R1 / V3 | Оба |
| Параметр | ☁️ Облачные (Claude, GPT) | 🖥️ Локальные (Ollama, LM Studio) |
|---|---|---|
| Качество | Высокое — лучшие модели на рынке | Среднее — зависит от размера модели |
| Приватность | Данные уходят на сервер | Всё на вашем железе |
| Скорость | Быстро — мощные GPU | Зависит от железа |
| Стоимость | $20–200/мес на подписку или по токенам | Бесплатно (но нужно железо) |
| Интернет | Обязателен | Не нужен |
| Железо | Любой компьютер с браузером | 16–64 GB RAM, желательно GPU |
| Применение | Сложные задачи, кодинг, архитектура | Рутина, конфиденциальные данные |
Вывод: Оптимальная стратегия — комбинировать. Облако для сложных задач, локальная модель для работы с конфиденциальными данными и рутинных операций.
Мой стек: Claude Code (CLI) для сложных задач с инфраструктурой + Ollama для быстрых вопросов и работы с конфиденциальными конфигами. Cursor как IDE для фронтенд-разработки.
При обновлении K8s на CentOS 8 падал containerd с ошибкой GLIBC_2.32 not found. Ansible-playbook валился с непонятными ошибками в dict evaluation.
*_binary_checksum переменныеЗадачи, которые раньше занимали 30–60 минут поиска в документации и StackOverflow, решаются за 2–5 минут диалога с LLM.
Вставляешь Java stack trace → LLM определяет root cause, объясняет цепочку вызовов, предлагает fix. Работает с Spring Boot, Kafka, Oracle exceptions.
«400 тестов упало с ошибкой "ПС не сформирован"» → LLM по описанию архитектуры определяет: CURRENTSTATUS в Oracle ≠ 0, нужен сброс операционного дня. Без чтения документации.
«invalid_grant при OIDC» → LLM знает типичные причины: expired password, missing client registration, неправильный scope. Даёт команды для проверки MongoDB/CAS.
Важно: LLM анализирует на основе паттернов. Всегда верифицируйте предложенные решения перед применением на production!
Правило: LLM — это джуниор-разработчик с энциклопедическими знаниями. Он быстро напишет код, но его нужно ревьюить как любой PR.
Решение: Для работы с конфиденциальными данными — локальная модель (Ollama). Данные не покидают вашу машину. Для проектов в финсекторе и госсекторе это критически важно.
LLM может уверенно генерировать несуществующие функции, пакеты, API endpoints. Всегда проверяйте, что предложенный код компилируется и работает.
Модель обучена на данных до определённой даты. Может предложить устаревший синтаксис K8s API или deprecated библиотеки. Локальные модели отстают сильнее.
Даже 200K токенов — это ~150K слов. Для больших проектов LLM не может «увидеть» весь код сразу. Нужно правильно формулировать контекст.
Облачные API: $3–75 за 1M токенов. При активном использовании — $50–200/мес. Локальные — бесплатно, но нужны ресурсы на железо.
«Напиши деплоймент для K8s»
«Напиши K8s Deployment для Spring Boot сервиса titanium: образ repo-cache.nat.kz/kisc/titanium:latest, порт 8080, liveness на /actuator/health, 2 реплики, лимит 512Mi RAM»
«Почему тесты падают?»
«400 тестов падают с ошибкой "ПС не сформирован". Система: Oracle + K8s, есть таблица CURRENTSTATUS. Что проверить?»
Правило 80/20: 80% качества ответа зависит от качества вопроса. Потратьте 30 секунд на формулировку — сэкономите 30 минут на итерациях.
LLM — это не замена инженера, а усилитель. Как IDE заменила блокнот, так LLM меняет подход к рутинным задачам. Кто начнёт раньше — получит преимущество.
Готов показать живую демонстрацию
Роман Бармин
Telegram: @barm_in