Populære emner
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Vi har ikke AI som forbedrer seg selv ennå, og når vi gjør det, vil det være en game-changer. Med mer visdom nå sammenlignet med GPT-4-dagene, er det åpenbart at det ikke vil være en "rask start", men heller ekstremt gradvis over mange år, sannsynligvis et tiår.
Det første du må vite er at selvforbedring, det vil si modeller som trener seg selv, ikke er binær. Tenk på scenariet med GPT-5 som trener GPT-6, noe som ville være utrolig. Ville GPT-5 plutselig gå fra å ikke kunne trene GPT-6 i det hele tatt til å trene den ekstremt dyktig? Definitivt ikke. De første GPT-6-treningskjøringene ville sannsynligvis være ekstremt ineffektive i tid og beregning sammenlignet med menneskelige forskere. Og først etter mange forsøk, ville GPT-5 faktisk være i stand til å trene GPT-6 bedre enn mennesker.
For det andre, selv om en modell kunne trene seg selv, ville den ikke plutselig bli bedre på alle domener. Det er en gradient av vanskelighetsgrad i hvor vanskelig det er å forbedre seg selv på ulike domener. For eksempel fungerer kanskje selvforbedring bare i begynnelsen på domener som vi allerede vet hvordan vi enkelt kan fikse etter trening, som grunnleggende hallusinasjoner eller stil. Neste vil være matematikk og koding, som krever mer arbeid, men har etablerte metoder for å forbedre modeller. Og så i ytterste konsekvens kan du forestille deg at det er noen oppgaver som er veldig vanskelige for selvforbedring. For eksempel evnen til å snakke Tlingit, et indianerspråk som snakkes av ~500 mennesker. Det vil være veldig vanskelig for modellen å forbedre seg selv på å snakke Tlingit, da vi ikke har måter å løse språk med lite ressurser som dette ennå, bortsett fra å samle inn mer data som vil ta tid. Så på grunn av gradienten av vanskelighetsgrad av selvforbedring, vil ikke alt skje på en gang.
Til slutt, kanskje dette er kontroversielt, men til syvende og sist er fremgang innen vitenskap flaskehals av eksperimenter i den virkelige verden. Noen tror kanskje at å lese alle biologiartikler vil fortelle oss kuren mot kreft, eller at å lese alle ML-artikler og mestre all matematikk vil tillate deg å trene GPT-10 perfekt. Hvis dette var tilfelle, ville de som leste flest artikler og studerte mest teori være de beste AI-forskerne. Men det som virkelig skjedde er at AI (og mange andre felt) ble dominert av hensynsløst empiriske forskere, noe som gjenspeiler hvor mye fremgang som er basert på virkelige eksperimenter i stedet for rå intelligens. Så poenget mitt er at selv om en supersmart agent kan designe 2x eller til og med 5 ganger bedre eksperimenter enn våre beste menneskelige forskere, må de til syvende og sist fortsatt vente på at eksperimentene skal kjøres, noe som ville være en akselerasjon, men ikke en rask start.
Oppsummert er det mange flaskehalser for fremgang, ikke bare rå intelligens eller et selvforbedringssystem. AI vil løse mange domener, men hvert domene har sin egen fremgangshastighet. Og selv den høyeste intelligensen vil fortsatt kreve eksperimenter i den virkelige verden. Så det blir en akselerasjon og ikke en rask start, takk for at du leser ranten min
339,91K
Topp
Rangering
Favoritter