トレンドトピック
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
LLMの幻覚は単なるバグではありません。彼らは期待されています。では、どのようにして出力を信頼すればよいのでしょうか。
最近のストリームで、@Mira_Network首席補佐官の@Shonik14は、鋭い意見を述べています。
GPT-3.5でさえ、最大27%の確率で幻覚を見ることができます。
1つのモデルで毎回「正解」を保証することはできません。
彼らの解決策は?
LLMのコンセンサスメカニズムは、ブロックチェーンで見られるものと似ています。
✅ 複数のモデルが相互にクロスチェックします
✅ 回答は採点されます
✅ モデルが間違った出力を生成すると、その賭け金は削減されます
その結果は?ノードが正確な出力に対して報酬を受け、BSに対してペナルティが課せられるインセンティブシステム。
このことは、エージェント経済にとってより広範な問題を提起します:モデルコンセンサスはAIの信頼性の未来なのでしょうか?そして、このアイデアをエージェントインフラにどのように適用しますか?
あなたの考え👇を共有してください
2.41K
トップ
ランキング
お気に入り