Aún no tenemos IA que se auto-mejore, y cuando la tengamos, será un cambio de juego. Con más sabiduría ahora en comparación con los días de GPT-4, es obvio que no será un "despegue rápido", sino más bien extremadamente gradual a lo largo de muchos años, probablemente una década. Lo primero que hay que saber es que la auto-mejora, es decir, modelos que se entrenan a sí mismos, no es binaria. Considera el escenario de GPT-5 entrenando a GPT-6, lo cual sería increíble. ¿Pasaría GPT-5 de no poder entrenar a GPT-6 en absoluto a entrenarlo de manera extremadamente competente? Definitivamente no. Las primeras ejecuciones de entrenamiento de GPT-6 probablemente serían extremadamente ineficientes en tiempo y recursos computacionales en comparación con los investigadores humanos. Y solo después de muchos intentos, GPT-5 realmente podría entrenar a GPT-6 mejor que los humanos. En segundo lugar, incluso si un modelo pudiera entrenarse a sí mismo, no mejoraría repentinamente en todos los dominios. Hay un gradiente de dificultad en lo difícil que es mejorar uno mismo en varios dominios. Por ejemplo, tal vez la auto-mejora solo funcione al principio en dominios que ya sabemos cómo arreglar fácilmente en post-entrenamiento, como las alucinaciones básicas o el estilo. Luego estarían las matemáticas y la programación, que requieren más trabajo pero tienen métodos establecidos para mejorar modelos. Y luego, en el extremo, puedes imaginar que hay algunas tareas que son muy difíciles para la auto-mejora. Por ejemplo, la capacidad de hablar Tlingit, un idioma nativo americano hablado por unas ~500 personas. Será muy difícil para el modelo auto-mejorarse en hablar Tlingit ya que aún no tenemos formas de resolver idiomas de bajos recursos como este, excepto recolectando más datos, lo cual tomaría tiempo. Así que, debido al gradiente de dificultad de la auto-mejora, no todo sucederá de una vez. Finalmente, tal vez esto sea controvertido, pero en última instancia, el progreso en la ciencia está limitado por experimentos en el mundo real. Algunos pueden creer que leer todos los artículos de biología nos diría la cura para el cáncer, o que leer todos los artículos de ML y dominar toda la matemática te permitiría entrenar a GPT-10 perfectamente. Si este fuera el caso, entonces las personas que leyeran más artículos y estudiaran más teoría serían los mejores investigadores de IA. Pero lo que realmente sucedió es que la IA (y muchos otros campos) se dominó por investigadores empíricos implacables, lo que refleja cuánto progreso se basa en experimentos del mundo real en lugar de en la inteligencia bruta. Así que mi punto es que, aunque un agente superinteligente podría diseñar experimentos 2x o incluso 5x mejores que nuestros mejores investigadores humanos, al final del día aún tendrían que esperar a que se ejecuten los experimentos, lo que sería una aceleración pero no un despegue rápido. En resumen, hay muchos cuellos de botella para el progreso, no solo la inteligencia bruta o un sistema de auto-mejora. La IA resolverá muchos dominios, pero cada dominio tiene su propia tasa de progreso. Y incluso la inteligencia más alta aún requerirá experimentos en el mundo real. Así que será una aceleración y no un despegue rápido, gracias por leer mi desahogo.
339,87K