1.0Kпросмотров
25 августа 2025 г.
stats📷 ФотоScore: 1.1K
Архитектура LLM. Часть 3. Узкоспециализированные ИИ системы Вообще создание узкоспециализированных ИИ систем на базе чужих LLM моделей (GPT, deepseek, gemini и др.) – очень распространенная практика. Я бы даже сказал, что это одна из основных практик на рынке (в том числе для российских разработчиков, хотя, к сожалению, многие проекты мигрируют в другие юрисдикции). Не даром закон ЕС об ИИ прямо разграничил регулирование моделей и систем (подробнее в нашем обзоре). Бизнесово существуют разные способы структурирования: 1⃣ Prompt Engineering (поверхностный уровень). Компания создаёт систему промптов, шаблонов, инструкций, которые направляют ответы модели, добавляют контекст. Это сложно назвать системой поверх модели. Скорее просто вам помогают с промптами. 2⃣ Fine-tuning (дообучение). Компания берёт готовую базовую модель и дотренивает её на своих данных (юридических, медицинских, финансовых и т.д). Веса модели слегка меняются → модель адаптируется к узкой задаче. 3⃣ Adapter (лёгкая настройка). Добавляется маленький модуль (адаптер) поверх модели, который был обучен на узких данных. Адаптер "живёт" внутри модели, но параметры самой модели не переписываются, но поверх них подгружаются веса адаптера, которые влияют на результат. 4⃣ Custom pipeline (надстройка над моделью). Тут есть несколько вариантов, в том числе RAG построен на этом, но базово: сама модель вообще не трогается (ни веса, ни архитектура), вокруг неё строится система управления запросами: 🔹 подготавливает промпт, 🔹 решает, когда вызвать модель, 🔹 обрабатывает её ответ (проверяет, фильтрует, дополняет данными) Иногда используется сразу несколько моделей + классические алгоритмы. Что это означает? С юридической точки зрения, создание узкоспециализированных ИИ системы – это обогащение или создание дополнительной базы данных. Поэтому описание выше по отношению к LLM применимо и тут.