Vi har inte AI som förbättrar sig själv ännu, och när vi gör det kommer det att vara en gamechanger. Med mer visdom nu jämfört med GPT-4-dagarna är det uppenbart att det inte kommer att bli en "snabb start", utan snarare extremt gradvis under många år, förmodligen ett decennium. Det första du bör veta är att självförbättring, det vill säga modeller som tränar sig själva, inte är binär. Tänk på scenariot med GPT-5-träning GPT-6, vilket skulle vara otroligt. Skulle GPT-5 plötsligt gå från att inte kunna träna GPT-6 alls till att träna den extremt skickligt? Definitivt inte. De första GPT-6-träningskörningarna skulle förmodligen vara extremt ineffektiva i tid och beräkning jämfört med mänskliga forskare. Och först efter många försök skulle GPT-5 faktiskt kunna träna GPT-6 bättre än människor. För det andra, även om en modell kunde träna sig själv, skulle den inte plötsligt bli bättre på alla domäner. Det finns en gradient av svårigheter i hur svårt det är att förbättra sig själv inom olika områden. Till exempel kanske självförbättring bara fungerar till en början på domäner som vi redan vet hur man enkelt kan åtgärda efter träning, som grundläggande hallucinationer eller stil. Nästa skulle vara matematik och kodning, som kräver mer arbete men har etablerade metoder för att förbättra modeller. Och i extremfallet kan du föreställa dig att det finns vissa uppgifter som är mycket svåra för självförbättring. Till exempel förmågan att tala Tlingit, ett indianspråk som talas av ~500 personer. Det kommer att vara mycket svårt för modellen att själv förbättra sig på att tala Tlingit eftersom vi ännu inte har några sätt att lösa lågresursspråk som detta förutom att samla in mer data, vilket skulle ta tid. Så på grund av gradienten av svårighet att förbättra sig själv kommer allt inte att hända på en gång. Slutligen kanske detta är kontroversiellt, men i slutändan är framsteg inom vetenskapen flaskhalsar av verkliga experiment. Vissa kanske tror att om man läser alla biologiartiklar skulle man få reda på botemedlet mot cancer, eller att man genom att läsa alla ML-artiklar och behärska all matematik skulle kunna träna GPT-10 perfekt. Om så vore fallet skulle de personer som läser flest artiklar och studerar mest teori vara de bästa AI-forskarna. Men vad som verkligen hände var att AI (och många andra områden) kom att domineras av hänsynslöst empiriska forskare, vilket speglar hur mycket framsteg som bygger på verkliga experiment snarare än rå intelligens. Så min poäng är att även om en supersmart agent kan designa 2x eller till och med 5x bättre experiment än våra bästa mänskliga forskare, måste de i slutet av dagen fortfarande vänta på att experimenten ska köras, vilket skulle vara en acceleration men inte en snabb start. Sammanfattningsvis finns det många flaskhalsar för framsteg, inte bara rå intelligens eller ett självförbättringssystem. AI kommer att lösa många domäner, men varje domän har sin egen utvecklingstakt. Och även den högsta intelligensen kommer fortfarande att kräva experiment i den verkliga världen. Så det kommer att bli en acceleration och inte en snabb start, tack för att du läste min rant
339,88K