Popularne tematy
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Halucynacje w LLM-ach nie są tylko błędami; są oczekiwane. Jak więc zaufać wynikom?
Na niedawnym streamie @Shonik14, szef sztabu @Mira_Network, przedstawił ostre spostrzeżenie:
// Nawet GPT-3.5 może halucynować do 27% czasu.
// Żaden pojedynczy model nie może zagwarantować „prawidłowej odpowiedzi” za każdym razem.
Ich rozwiązanie?
Mechanizm konsensusu dla LLM-ów, nieco podobny do tego, co widzimy w blockchainach.
✅ Wiele modeli wzajemnie się sprawdza
✅ Odpowiedzi są oceniane
✅ Jeśli model produkuje błędne wyniki, jego stawka zostaje obcięta
Rezultat? System zachęt, w którym węzły są nagradzane za dokładne wyniki i karane za bzdury.
To rodzi szersze pytanie dla gospodarki agentów: Czy konsensus modelu to przyszłość zaufania w AI? I jak zastosowałbyś ten pomysł w swojej infrastrukturze agentów?
Podziel się swoimi przemyśleniami👇
2,43K
Najlepsze
Ranking
Ulubione