الهلوسة في LLMs ليست مجرد حشرات. هم متوقعون. إذن ، كيف نثق في الإخراج؟ في تيار حديث ، طرح @Shonik14 ، رئيس الأركان @Mira_Network ، نظرة حادة: حتى GPT-3.5 يمكن أن تهلوس ما يصل إلى 27٪ من الوقت. لا يمكن لأي نموذج واحد أن يضمن "الإجابة الصحيحة" في كل مرة. حلهم؟ آلية إجماع ل LLMs ، لا تختلف عما نراه في blockchains. ✅ نماذج متعددة تتحقق من بعضها البعض ✅ يتم تسجيل الإجابات ✅ إذا أنتج النموذج مخرجات خاطئة ، خفض حصته النتيجة؟ نظام حوافز حيث تتم مكافأة العقد على الإخراج الدقيق ومعاقبتها على BS. يثير هذا سؤالا أوسع للاقتصاد الوكيل: هل الإجماع النموذجي هو مستقبل ثقة الذكاء الاصطناعي؟ وكيف يمكنك تطبيق هذه الفكرة في وكيلك أدناه؟ شارك بأفكارك👇
‏‎2.4‏K