Temas en tendencia
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Teknium (e/λ)
Teknium (e/λ) reposteó
🚀 La clonación de voz MegaTTS 3 ya está aquí
Para contextualizar: hace un tiempo, ByteDance lanzó MegaTTS 3 (con capacidades excepcionales de clonación de voz), pero por varias razones, decidieron no lanzar el codificador WavVAE necesario para que la clonación de voz funcionara.
Recientemente, ACoderPassBy lanzó un codificador WavVAE compatible con MegaTTS 3 en ModelScope con resultados bastante prometedores.
En general, se ve bastante impresionante, ¡emocionado de ver que finalmente podemos hacer clonación de voz con MegaTTS 3!
(h / t a MysteryShack en el Discord de StyleTTS 2 para obtener información sobre el codificador WavVAE)

4.68K
¿No ha habido estudios sobre razonadores híbridos? Voy a hacer algunas ejecuciones a través de un nuevo modelo sin un conjunto de datos que no sea de razonamiento.
Le permitirá saber cómo los datos de solo razonamiento afectan el modelo frente a cuando hay datos sin razonamiento. Probablemente unas pocas semanas tendrán algunas buenas ideas si puedo tener tiempo.
4.8K
Recuerdo cuando todos dijeron que era un problema de tokenización

Flavio Adamo19 jul, 22:01
2020: "Los LLM no pueden hacer matemáticas".
2025: LLM gana el oro en la OMI
37.44K
Teknium (e/λ) reposteó
Hermes 3 de @NousResearch es el conjunto de datos #1 en @huggingface
Planeo usarlo
No duermas en Nous
Ellos:
- Construya increíbles ajustes de código abierto
- Computación distribuida construida
- Tener conjuntos de datos bien seleccionados
- Son totalmente transparentes con los pesos y el código del modelo
- Tomas basadas en publicaciones en X

6.95K
Mi mejor suposición:
Rúbricas + Juez LLM: atomice cada punto en la prueba de verdad fundamental y verifique con la salida del modelo
Mi conjetura sobre cómo hicieron esto escalable: como antes no lo era, los humanos tenían que elaborarlos meticulosamente, ¿se entrenaron o hicieron algo para hacer muy buenas rúbricas generadas para cada problema específico o su respuesta?
22.24K
En b4 iniciamos un IDE de codificación para ai para que podamos obtener buenos datos

pash19 jul, 09:58
Me gustaría señalar que para las tareas del mundo real (no los puntos de referencia), Kimi K2 supera a Gemini.
Se trata de telemetría en todos los usuarios @cline, que muestra la tasa de errores de edición de diferencias. Observe cómo Kimi tiene una tasa de falla de aproximadamente el 6%, que es significativamente mejor que la tasa de error de ~ 10% de Gemini.
Sorprendentemente, Kimi incluso superó a Claude 4 durante la mayor parte de esta semana, ¡logrando una tasa de fracaso inferior al 4%!

6.81K
Populares
Ranking
Favoritas
Onchain en tendencia
Tendencia en X
Principales fondos recientes
Más destacadas