Halucinațiile din LLM-uri nu sunt doar bug-uri; sunt așteptați. Deci, cum avem încredere în rezultate? Într-un flux recent, @Shonik14, șeful de cabinet @Mira_Network, a adus în discuție o opinie clară: Chiar și GPT-3.5 poate avea halucinații până la 27% din timp. Niciun model nu poate garanta un "răspuns corect" de fiecare dată. Soluția lor? Un mecanism de consens pentru LLM-uri, nu diferit de ceea ce vedem în blockchain-uri. ✅ Mai multe modele se verifică reciproc ✅ Răspunsurile sunt punctate ✅ Dacă un model produce rezultate greșite, miza sa este redusă Rezultatul? Un sistem de stimulente în care nodurile sunt recompensate pentru rezultate precise și penalizate pentru BS. Acest lucru ridică o întrebare mai amplă pentru economia agenților: este consensul modelului viitorul încrederii în AI? Și cum ați aplica această idee în infrastructura agentului dvs.? Împărtășește-ți gândurile👇
2,41K