1.8Kпросмотров
43.2%от подписчиков
18 февраля 2025 г.
Score: 1.9K
Как я использую локальный ИИ для анализа UX-исследований 🤖 Если вы следите за развитием ИИ, то наверняка заметили, как стремительно развиваются инструменты на основе нейросетей. Хочу поделиться своим опытом практического применения ИИ в UX-исследованиях. Задача была типичной для UX-исследователя: проанализировать и систематизировать около 30 пользовательских интервью, подготовить презентацию для стейкхолдеров. Работа объемная и, честно говоря, довольно нудная. Естественно, я задумался об использовании ИИ. ChatGPT или Claude не подходили – компания запрещает передавать пользовательские данные сторонним организациям. Нужно было найти локальное решение.
После поисков я наткнулся на open-source проект Anything LLM. Важно понимать, что это не готовый аналог ChatGPT, а система управления нейронными сетями со следующими возможностями:
- Работает полностью локально, без подключения к интернету
- Обрабатывает текстовые файлы (doc, pdf, csv, txt)
- Создает локальную базу данных из загруженных документов
- Позволяет общаться с данными через текстовые промты
- Поддерживает визуализацию данных и построение графиков
- Интегрируется с различными LLM моделями Про выбор LLM модели: Anything LLM сам по себе не включает языковую модель – вам нужно выбрать и установить её отдельно. Я использую Ollama – удобный фреймворк для запуска LLM на десктопе. Стоит учитывать, что от выбора модели зависит качество анализа. Я остановился на Llama3.2 – она не слишком большая и вполне подходит для работы с файлами. Мой финальный сетап:
- Исходные данные: 30 doc файлов с интервью
- Ollama для управления LLM моделью
- Llama3.2 как основная языковая модель
- AnythingLLM для создания базы данных и интерфейс для общения с нейросетью В чем главная ценность такого решения? Прежде всего, вы получаете полную конфиденциальность – все данные остаются только на вашем компьютере, никуда не уходят. Система создает единую базу знаний из ваших документов, что позволяет мгновенно находить и анализировать информацию по всем материалам сразу. Теперь вместо утомительного поиска по файлам я просто задаю вопросы и получаю нужную информацию. Например, можно спросить "Сколько пользователей в возрасте 25-35 лет испытывали проблемы с навигацией?" – и ИИ проанализирует все интервью.
Можно задавать сложные аналитические вопросы и получать наглядную визуализацию данных. А главное – нет никаких ограничений по количеству токенов или запросов, как в онлайн-сервисах. Важный момент: поначалу были проблемы – модель могла "галлюцинировать" или придумывать несуществующие данные. Решилось это правильной настройкой AnythingLLM и оптимизацией промтов. Например, важно четко указывать в промтах, что анализировать нужно только имеющиеся данные, без додумывания. Если интересно узнать, как всё это настроить – поставьте 🔥 - запишу подробный видео-туториал по установке и работе с AnythingLLM.