D
DataUnderControl
@dataundercontrol942 подп.
388просмотров
41.2%от подписчиков
23 января 2026 г.
📷 ФотоScore: 427
Как «ага» и «подожди» заставляют ИИ думать лучше 🤖 Google и Чикагский университет выпустили работу о природе «рассуждений» в больших языковых моделях. Главный инсайт – Reinforcement Learning учит модель думать не дольше, а симулировать внутренний диалог. Это назвали «обществом мыслей» (society of thought). Замечали, что модель иногда: · задаёт себе уточняющие вопросы, · делает паузы, · пересматривает ответ? 📎Эта структура и есть механизм рассуждения. Причем здесь «ага»? 1. Гуглы нашли особый паттерн активности, связанный с моментами осознания, удивления, смены перспективы. Он вспыхивает на фразах: «ага», «стоп…», «то есть…» и т.д. 2. Этот паттерн искусственно усиливали и подавляли в модели DeepSeek-R1-Llama-8B. 3. На сложных арифметических задачах результат изменился так: · Базовая точность: 27,1% · С усилением «диалогового маркера»: 54,8% · С подавлением: 23,8% Рост точности значим и связан именно с улучшением стратегического мышления, а не с увеличением длины ответа. 🧑‍💻Что это значит на практике? Похоже, LLM рассуждают как целая команда: один сомневается, другой проверяет, третий пересобирает вывод. Отсюда интересная фича: иногда стоит просить модель «использовать больше “А!”, “точно!”, “подожди…” и перепроверять вывод. ❤️ DataUnderControl #ИИ #LLM #ML #AI #DataScience
388
просмотров
1315
символов
Да
эмодзи
Да
медиа

Другие посты @dataundercontrol

Все посты канала →
Как «ага» и «подожди» заставляют ИИ думать лучше 🤖 Google и — @dataundercontrol | PostSniper