2.4Kпросмотров
11.7%от подписчиков
26 марта 2026 г.
📷 ФотоScore: 2.7K
🧠 RAG и Fine-Tuning: про обучение нейросетей 🤖 Когда AI придёт и в ваш проект, эти два термина вам точно пригодятся. 👉 Да и в обычной работе с AI для задач СА и БА полезно знать не только промпт-инжиниринг, но и эти два подхода. Они тоже помогают получать от AI более качественный результат. Донастройку AI под себя через RAG и Fine Tuning можно сделать почти в любой нейросети, включая ChatGPT, Алиса AI, Qwen и другие. Подробнее 👇 1️⃣ RAG = AI ищет ответ по вашим данным
RAG (Retrieval-Augmented Generation) — генерация, дополненная поиском. Это подход, при котором AI отвечает на основе ваших документов и базы знаний.
Вы загружаете свои файлы: PDF, HTML-страницы, статьи, инструкции, регламенты и другие материалы, а система ищет ответ по ним. То есть модель не переобучают.
Ей просто дают нужный контекст из ваших данных для ответов на вопросы. Технически это реализуется так: 1) Векторизация запроса — преобразование запроса в числовое представление (без AI). 2) Поиск релевантных фрагментов — система ищет в векторной БД наиболее близкие числа, т.е. фрагменты документов (без AI). 3) генерация ответа на основе этих фрагментов — найденные фрагменты добавляются в запрос к AI-модели, и она формирует ответ с их учётом. Пример:
NotebookLM работает по принципу RAG.
Вы загружаете материалы, и AI далее работает именно по ним. 2️⃣ Fine-Tuning = меняем саму модель под нужную задачу Это дообучение модели под конкретные задачи, формат ответов или предметную область. Другими словами — "улучшение мозгов" 🧠 То есть здесь меняются не внешние документы рядом с моделью, а сама модель адаптируется под нужный сценарий. Например, если вы хотите, чтобы модель: писала Use Case в вашем формате, генерировала REST API методы по шаблону, лучше понимала терминологию конкретной отрасли, стабильно отвечала в нужном стиле. Тогда Fine-Tuning может быть уместен. 🔻 Это более сложный и дорогой путь, который требует качественной подготовки обучающих данных. Пример:
AI-ассистент “слушает” встречу врача с пациентом, выделяет из разговора важные данные и автоматически оформляет запись в медицинской карте в нужном формате и помогает с предварительным определением диагноза. Для этого модель дообучают на большом количестве реальных врачебных записей, которые ранее заполнялись вручную. Данные делят на "обучающие" и "тестовые". На обучающих модель учится, а на тестовых проверяют, что она отвечает как настоящий доктор. 👉 В чём разница RAG
➡️ модель не дообучается
➡️ даёт ей доступ к внешним документам
➡️ удобно, когда данные часто меняются Fine-Tuning
➡️ модель дообучается
➡️ меняется её внутреннее поведение
➡️ удобно, когда нужно глубже адаптировать её под задачу 👉 Когда выбирают RAG:
✔️ есть база документов
✔️ знания часто обновляются
✔️ нужен быстрый и более дешёвый запуск AI в продукте 👉 Когда выбирают Fine-Tuning:
✔️ нужен стабильный формат ответов
✔️ знания меняются редко
✔️ важна адаптация под узкую предметную область, простой RAG уже не даёт нужного качества 👉 Иногда в проекте используют оба подхода сразу:
▫️ RAG — для получения актуальных данных,
▫️ Fine-Tuning — для лучшего поведения модели. Системному аналитику полезно знать оба термина.
Потому что в AI-проектах это уже не “что-то для ML-инженеров”, а часть обсуждения архитектуры решения. 📱 GetAnalyst | 💙 VK | 💬 Max #AI_for_analysts