77просмотров
8 декабря 2025 г.
📷 ФотоScore: 85
Когда мы переписываемся с моделью, кажется, что она держится в фокусе контекста беседы и помнит весь диалог. Но на самом деле LLM не хранит текущее состояние: она как БД в режиме read-only. ⚙️ Как это работает Вся "магия" диалога — внутри чат-платформы. Каждое ваше сообщение отправляется в модель вместе с полной историей диалога, системными инструкциями и параметрами запроса. Для модели это один большой контекст: «Вот всё, что нужно знать. Продолжи». После генерации ответа модель не сохраняет никакого состояния — и «помнит» диалог только в том случае, если предыдущие сообщения снова передаются ей в следующем запросе. 🔳 Контекстное окно У модели есть "оперативная память" — сколько токенов она может "обдумать" одновременно. В это окно попадают: - системный промпт - история диалога - текущее сообщение - ответ модели Когда окно переполняется, старые части диалога выпадают — чаще всего это происходит с деталями из середины обсуждения. Поэтому длинные цепочки рассуждений со временем начинают «плыть». Что важно учитывать - длинные диалоги теряют контекст; - ключевые детали лучше повторять; - большие обсуждения делить на этапы. Маленький, но полезный приём Используйте мини-промпт: «Сделай сводку по текущей беседе» Это подчистит контекст, уменьшит шум и поможет и вам, и модели удерживать основную линию разговора. Эту сводку можно скопировать в новый чат с промптом «Вот сводка по предыдущей беседе» и «ответвить» диалог с того же места, но в новом окне. Вывод: LLM не ведёт диалог — она каждый раз продолжает текст в заданном контексте. Вся работа с чатами сводится к управлению этим контекстом, а не к «общению».
77
просмотров
1641
символов
Нет
эмодзи
Да
медиа

Другие посты @ai4its

Все посты канала →