339просмотров
43.3%от подписчиков
14 августа 2025 г.
📷 ФотоScore: 373
Вести себе інтелектуально - не дорівнює «мати інтелект» Продовжую писати cognitive biases нашого мозку, які заставляють нас думати, що LLMки мають інтелект. Цього разу почну з питання: “Чому LLM виглядають для нас розумними”? Коротка відповідь: поведінка LLM нагадує поведінку людей, тому ч-з когнітивне упередження нашого мозку ми думаємо, що якщо якась сутність поводиться “інтелектуально” - у неї має бути інтелект. Але з LLM це так не працює. Розглянемо приклад з юридичним питанням. Якщо його окремо задати юристові, і окремо LLMці - то в багатьох випадках ми одержимо схожі відповіді, які і юрист, і LLM нададуть так званою натуральною (“людською”) мовою. Через те, що ми (люди): ⁃ можемо бачити лише результат відповіді на запитання (іншими словами - лише поведінку юриста і LLM) ⁃ АЛЕ не бачимо те, що відбувається в мозку юриста чи в процесах роботи LLM для формування самої відповіді, -> то починаємо презюмувати, що якщо поведінка виглядає “інтелектуально” в обох випадках - значить “інтелект” присутній в обох випадках теж. Але це не так. Щоб згенерувати відповідь на юридичне запитання, яка виглядатиме “розумною” - LLM використовує: 1. Власну памʼять (включає як “внутрішню” памʼять LLM, яка є pre-trained, так і зовнішню, звідки LLM робить fact retrieval)
2. Natural language processing (вміння розуміти “людьську” мову і відповідати нею). Чого в цьому списку не вистачає, щоб вважати LLM інтелектуальною? Відповідь: не вистачає cognition & reasoning. Людьський мозок теж має памʼять, може екстрагувати факти з памʼяті і відповідати натуральною мовою на юридичне запитання. Але окрім цього, наш мозок також вміє мислити на високому рівні абстракцій, розуміючи різні концепти і вміючи поєднувати їх в нові сутності. Ця різниця стає очевидною, коли ви даєте LLM запитання, на яке в інтернеті ще немає усталених відповідей. Ми в Legal Nodes супроводжуємо компанії з cutting edge industries (блокчейн, АІ), і коли справа доходить до юридичних запитань - LLM видають або занадто generic відповіді, або повністю неправильні. Причина: ця інформація просто відсутня в pre-trained data, яка використовувалась для тренування АІ. Або іншими словами - ці дані відсутні в памʼяті LLM. А застосувати аналогію права для відповіді на запитання про те, як певні MiCA політики для крипто проекту можуть працювати по аналогії з тим, як політики EMI зараз працюють для класичного фінтеку - LLM не може. Чому? Бо у LLM немає інтелекту. Є лише памʼять і NLP. Якщо цікаво прочитати більше про відмінність між “біхейвіоризмом” і “когнітивізмом” в дослідженні того, що таке Інтелект - рекомендую статтю від розробника соціальних графів лінкедіна Ось посилання на його medium: https://medium.com/@mike.dillinger/what-is-ai-first-steps-for-innocent-bystanders-0ac01b2bf39f (досі дивуюсь, як такі якісні матеріали одержують так мало уваги, в той час як хайпова АІ-шна попса про автономних агентів і AGI залучає мільйони переглядів. але це мабуть предмет окремої замітки про інший вид когнітивних упереджень нашого мозку)