Галюцинації в ЛМ – це не просто помилки; Вони очікувані. Отже, як ми можемо довіряти результатам? У нещодавньому стрімі @Shonik14, начальник штабу @Mira_Network, висловив різку думку: Навіть GPT-3.5 може галюцинувати до 27% часу. Жодна модель не може гарантувати «правильну відповідь» щоразу. Яке їх рішення? Механізм консенсусу для LLM, не схожий на те, що ми бачимо в блокчейнах. ✅ Кілька моделей перевіряють одна одну ✅ Відповіді оцінюються ✅ Якщо модель видає неправильні результати, її частка скорочується До чого це призвело? Система заохочень, де вузли винагороджуються за точний вихід і штрафуються за BS. Це піднімає більш широке питання для агентської економіки: чи є консенсус моделей майбутнім довіри до штучного інтелекту? І як би ви застосували цю ідею у своїй агентській інфраструктурі? Поділіться своїми думками👇
2,41K