LLMの幻覚は単なるバグではありません。彼らは期待されています。では、どのようにして出力を信頼すればよいのでしょうか。 最近のストリームで、@Mira_Network首席補佐官の@Shonik14は、鋭い意見を述べています。 GPT-3.5でさえ、最大27%の確率で幻覚を見ることができます。 1つのモデルで毎回「正解」を保証することはできません。 彼らの解決策は? LLMのコンセンサスメカニズムは、ブロックチェーンで見られるものと似ています。 ✅ 複数のモデルが相互にクロスチェックします ✅ 回答は採点されます ✅ モデルが間違った出力を生成すると、その賭け金は削減されます その結果は?ノードが正確な出力に対して報酬を受け、BSに対してペナルティが課せられるインセンティブシステム。 このことは、エージェント経済にとってより広範な問題を提起します:モデルコンセンサスはAIの信頼性の未来なのでしょうか?そして、このアイデアをエージェントインフラにどのように適用しますか? あなたの考え👇を共有してください
2.41K