U
uxtrends
@uxtrends4.0K подп.
1.8Kпросмотров
43.2%от подписчиков
18 февраля 2025 г.
Score: 1.9K
Как я использую локальный ИИ для анализа UX-исследований 🤖 Если вы следите за развитием ИИ, то наверняка заметили, как стремительно развиваются инструменты на основе нейросетей. Хочу поделиться своим опытом практического применения ИИ в UX-исследованиях. Задача была типичной для UX-исследователя: проанализировать и систематизировать около 30 пользовательских интервью, подготовить презентацию для стейкхолдеров. Работа объемная и, честно говоря, довольно нудная. Естественно, я задумался об использовании ИИ. ChatGPT или Claude не подходили – компания запрещает передавать пользовательские данные сторонним организациям. Нужно было найти локальное решение. После поисков я наткнулся на open-source проект Anything LLM. Важно понимать, что это не готовый аналог ChatGPT, а система управления нейронными сетями со следующими возможностями: - Работает полностью локально, без подключения к интернету - Обрабатывает текстовые файлы (doc, pdf, csv, txt) - Создает локальную базу данных из загруженных документов - Позволяет общаться с данными через текстовые промты - Поддерживает визуализацию данных и построение графиков - Интегрируется с различными LLM моделями Про выбор LLM модели: Anything LLM сам по себе не включает языковую модель – вам нужно выбрать и установить её отдельно. Я использую Ollama – удобный фреймворк для запуска LLM на десктопе. Стоит учитывать, что от выбора модели зависит качество анализа. Я остановился на Llama3.2 – она не слишком большая и вполне подходит для работы с файлами. Мой финальный сетап: - Исходные данные: 30 doc файлов с интервью - Ollama для управления LLM моделью - Llama3.2 как основная языковая модель - AnythingLLM для создания базы данных и интерфейс для общения с нейросетью В чем главная ценность такого решения? Прежде всего, вы получаете полную конфиденциальность – все данные остаются только на вашем компьютере, никуда не уходят. Система создает единую базу знаний из ваших документов, что позволяет мгновенно находить и анализировать информацию по всем материалам сразу. Теперь вместо утомительного поиска по файлам я просто задаю вопросы и получаю нужную информацию. Например, можно спросить "Сколько пользователей в возрасте 25-35 лет испытывали проблемы с навигацией?" – и ИИ проанализирует все интервью. Можно задавать сложные аналитические вопросы и получать наглядную визуализацию данных. А главное – нет никаких ограничений по количеству токенов или запросов, как в онлайн-сервисах. Важный момент: поначалу были проблемы – модель могла "галлюцинировать" или придумывать несуществующие данные. Решилось это правильной настройкой AnythingLLM и оптимизацией промтов. Например, важно четко указывать в промтах, что анализировать нужно только имеющиеся данные, без додумывания. Если интересно узнать, как всё это настроить – поставьте 🔥 - запишу подробный видео-туториал по установке и работе с AnythingLLM.
1.8K
просмотров
2875
символов
Да
эмодзи
Нет
медиа

Другие посты @uxtrends

Все посты канала →
Как я использую локальный ИИ для анализа UX-исследований 🤖 — @uxtrends | PostSniper