Non abbiamo ancora un'IA che si auto-migliora, e quando lo avremo sarà un cambiamento radicale. Con più saggezza ora rispetto ai tempi di GPT-4, è ovvio che non sarà un "decollo veloce", ma piuttosto estremamente graduale nel corso di molti anni, probabilmente un decennio. La prima cosa da sapere è che l'auto-miglioramento, cioè i modelli che si addestrano da soli, non è binario. Considera lo scenario in cui GPT-5 allena GPT-6, il che sarebbe incredibile. GPT-5 passerebbe improvvisamente dall'essere incapace di addestrare GPT-6 a farlo in modo estremamente competente? Assolutamente no. I primi tentativi di addestramento di GPT-6 sarebbero probabilmente estremamente inefficienti in termini di tempo e risorse computazionali rispetto ai ricercatori umani. E solo dopo molti tentativi, GPT-5 sarebbe effettivamente in grado di addestrare GPT-6 meglio degli esseri umani. In secondo luogo, anche se un modello potesse addestrarsi da solo, non migliorerebbe improvvisamente in tutti i domini. Esiste un gradiente di difficoltà nel quanto sia difficile migliorarsi in vari domini. Ad esempio, forse l'auto-miglioramento funziona solo inizialmente in domini che già sappiamo come risolvere facilmente dopo l'addestramento, come le allucinazioni di base o lo stile. Successivamente ci sarebbero la matematica e la programmazione, che richiedono più lavoro ma hanno metodi consolidati per migliorare i modelli. E poi, all'estremo, puoi immaginare che ci siano alcuni compiti che sono molto difficili per l'auto-miglioramento. Ad esempio, la capacità di parlare Tlingit, una lingua nativa americana parlata da circa 500 persone. Sarà molto difficile per il modello auto-migliorarsi nel parlare Tlingit poiché non abbiamo ancora modi per risolvere lingue a bassa risorsa come questa, se non raccogliendo più dati, il che richiederebbe tempo. Quindi, a causa del gradiente di difficoltà dell'auto-miglioramento, non tutto accadrà in una volta. Infine, forse questo è controverso, ma alla fine i progressi nella scienza sono bloccati da esperimenti nel mondo reale. Alcuni potrebbero credere che leggere tutti i documenti di biologia ci direbbe la cura per il cancro, o che leggere tutti i documenti di ML e padroneggiare tutta la matematica ti permetterebbe di addestrare perfettamente GPT-10. Se fosse così, allora le persone che leggono il maggior numero di documenti e studiano la maggior parte della teoria sarebbero i migliori ricercatori di IA. Ma ciò che è realmente accaduto è che l'IA (e molti altri campi) è diventata dominata da ricercatori empirici spietati, il che riflette quanto progresso si basi su esperimenti nel mondo reale piuttosto che su intelligenza grezza. Quindi il mio punto è che, sebbene un agente super intelligente potrebbe progettare esperimenti 2x o addirittura 5x migliori dei nostri migliori ricercatori umani, alla fine devono comunque aspettare che gli esperimenti vengano eseguiti, il che sarebbe un'accelerazione ma non un decollo veloce. In sintesi, ci sono molti colli di bottiglia per il progresso, non solo intelligenza grezza o un sistema di auto-miglioramento. L'IA risolverà molti domini, ma ogni dominio ha il proprio tasso di progresso. E anche la più alta intelligenza richiederà comunque esperimenti nel mondo reale. Quindi sarà un'accelerazione e non un decollo veloce, grazie per aver letto il mio sfogo.
339,91K