Tendencias del momento
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Trissy
Un último encierro
Los protocolos y equipos deberían dejar de pagar a los KOLs por contenido.
La única vez que los equipos deberían repartir tokens es a los KOLs o miembros de la comunidad que están creando un alto valor para su proyecto y devolviendo resultados.
Tu producto o narrativa debería ser lo suficientemente interesante como para que las personas influyentes quieran comprarlo y escribir sobre ello de manera natural.
A estos son a los que deberías asignar tokens, no a hacer 3 hilos pagados para embajadores que compran sus seguidores.
"¿Qué pasa si no puedo conseguir que nadie esté interesado en mi producto para tuitear?" Entonces sigue construyendo, claramente no has encontrado el nicho adecuado o no has hecho suficientes conexiones si no puedes construir un par de seguidores clave.
Mi mensaje para los creadores: construye algo lo suficientemente genial como para que la gente quiera comprarlo y escribir sobre ello de manera natural, da tokens a los mayores seguidores que se alineen con tu visión. Dado que:
1. Es mucho más probable que trabajen horas extras y hagan un esfuerzo adicional para ayudarte a tener éxito, ya que demostraste un comportamiento moral fuerte (una rareza en este espacio)
2. Aquellos a los que pagas por un cierto número de publicaciones se desentenderán tan pronto como su trato termine y venderán los tokens.
No hago promociones pagadas de ningún tipo, pero obviamente no voy a rechazar tokens gratis para un proyecto en el que estoy extremadamente optimista y sin condiciones. Los mejores escritores no se pueden comprar y se alejarán si lo intentas.
Juega a largo plazo y no tomes atajos, se reflejará en tus acciones en cada vertical del negocio y los traders inteligentes pueden olerlo a kilómetros de distancia.
Las campañas de KOL están muertas, el 99.9% de las agencias de marketing son un desperdicio de dinero y serán -ev para tu negocio.
La única forma de penetrar en este mercado es tener miembros del equipo nativos en cripto que estén dispuestos a ensuciarse las manos.
3,01K
OpenAI acaba de confirmar mi tesis de estrella del norte para la IA hoy al lanzar su agente operador.
No solo fue esta mi tesis guía para $CODEC, sino para cada otra inversión en IA que hice, incluidas las de principios de año durante la locura de la IA.
Ha habido mucha discusión con Codec en relación a la robótica, mientras que ese vertical tendrá su propia narrativa muy pronto, la razón subyacente por la que fui tan optimista sobre Codec desde el primer día es debido a cómo su arquitectura potencia a los agentes operadores.
La gente todavía subestima cuánto mercado está en juego al construir software que funciona de manera autónoma, superando a los trabajadores humanos sin necesidad de constantes indicaciones o supervisión.
He visto muchas comparaciones con $NUIT. Primero quiero decir que soy un gran fan de lo que Nuit está construyendo y deseo nada más que su éxito. Si escribes "nuit" en mi telegram, verás que en abril dije que si tuviera que mantener una moneda durante varios meses, habría sido Nuit debido a mi tesis de operador.
Nuit era el proyecto de operador más prometedor en papel, pero después de una extensa investigación, encontré que su arquitectura carecía de la profundidad necesaria para justificar una inversión importante o poner mi reputación detrás de ella.
Con esto en mente, ya estaba consciente de las brechas arquitectónicas en los equipos de agentes operadores existentes y buscando activamente un proyecto que las abordara. Poco después apareció Codec (gracias a @0xdetweiler por insistir en que profundizara en ellos) y esta es la diferencia entre los dos:
$CODEC vs $NUIT
La arquitectura de Codec está construida en tres capas; Máquina, Sistema e Inteligencia, que separan la infraestructura, la interfaz del entorno y la lógica de IA. Cada agente operador en Codec funciona en su propia VM o contenedor aislado, lo que permite un rendimiento casi nativo y aislamiento de fallos. Este diseño en capas significa que los componentes pueden escalar o evolucionar de manera independiente sin romper el sistema.
La arquitectura de Nuit toma un camino diferente al ser más monolítica. Su pila gira en torno a un agente de navegador web especializado que combina análisis, razonamiento de IA y acción. Esto significa que analizan profundamente las páginas web en datos estructurados para que la IA los consuma y depende del procesamiento en la nube para tareas pesadas de IA.
El enfoque de Codec de incrustar un modelo ligero de Visión-Lenguaje-Acción (VLA) dentro de cada agente significa que puede funcionar completamente local. Lo que no requiere constantes pings de vuelta a la nube para instrucciones, eliminando la latencia y evitando la dependencia de tiempo de actividad y ancho de banda.
El agente de Nuit procesa tareas convirtiendo primero las páginas web en un formato semántico y luego usando un cerebro LLM para averiguar qué hacer, lo que mejora con el tiempo con el aprendizaje por refuerzo. Si bien es efectivo para la automatización web, este flujo depende del procesamiento de IA en la nube y de estructuras de página predefinidas. La inteligencia del dispositivo local de Codec significa que las decisiones se toman más cerca de los datos, reduciendo la sobrecarga y haciendo que el sistema sea más estable ante cambios inesperados (sin scripts frágiles o suposiciones de DOM).
Los operadores de Codec siguen un bucle continuo de percibir–pensar–actuar. La capa de máquina transmite el entorno (por ejemplo, un feed de aplicación en vivo o robot) a la capa de inteligencia a través de los canales optimizados de la capa del sistema, dando a la IA "ojos" sobre el estado actual. El modelo VLA del agente luego interpreta las visuales y las instrucciones juntas para decidir una acción, que la capa del sistema ejecuta a través de eventos de teclado/rato o control de robot. Este bucle integrado significa que se adapta a eventos en vivo, incluso si la interfaz de usuario cambia, no romperás el flujo.
Para poner todo esto en una analogía más simple, piensa en los operadores de Codec como un empleado autosuficiente que se adapta a sorpresas en el trabajo. El agente de Nuit es como un empleado que necesita pausar, describir la situación a un supervisor por teléfono y esperar instrucciones.
Sin entrar demasiado en un agujero técnico, esto debería darte una idea de alto nivel sobre por qué elegí Codec como mi apuesta principal en Operadores.
Sí, Nuit tiene respaldo de YC, un equipo impresionante y un github de nivel S. Aunque la arquitectura de Codec ha sido construida con escalabilidad horizontal en mente, lo que significa que puedes desplegar miles de agentes en paralelo sin memoria compartida o contexto de ejecución entre agentes. El equipo de Codec tampoco es de desarrolladores promedio.
Su arquitectura VLA abre una multitud de casos de uso que no eran posibles con modelos de agentes anteriores debido a ver a través de píxeles, no capturas de pantalla.
Podría seguir, pero lo dejaré para futuras publicaciones.
15,76K
El caso es que, si realmente quieres triunfar en este espacio, todos a tu alrededor pensarán que hay algo mal contigo.
Para ser verdaderamente parte del 0.001%, la vida fuera de las trincheras es casi inexistente.
Sin chicas, sin pasatiempos, sin salidas sociales, sin Netflix ni nada que te aleje del trabajo duro.
Es un tipo de mentalidad que es extremadamente poco comprensible incluso para los atletas profesionales, porque no hay razón para que no puedas estar en línea 24/7.
Estamos atrapados en nuestra propia paradoja de libertad.
Todos quieren la habilidad mágica de hacer clic en botones para ganar dinero, hasta que llega el momento de decir no al 95% de los placeres.
Amigos y familiares constantemente lanzarán insinuaciones sugiriendo que tienes alguna forma de enfermedad mental y nunca verán verdaderamente la visión.
La envidia surge cuando pequeños éxitos se filtran, si observas a las personas lo suficiente, siempre revelan sus verdaderas intenciones, incluso si no lo hicieron intencionadamente.
Las más pequeñas pistas los delatarán, generalmente a partir de reacciones emocionales espontáneas en el momento donde solo necesitas escuchar unas pocas palabras salir, la mayoría de las veces eso es todo lo que se necesita.
A medida que te vuelves más exitoso, aprende a mantenerte en silencio. No hay necesidad de mencionar tu progreso, por grandioso que sea compartirlo con todos y disfrutar de los frutos de tu trabajo, solo atraerá la codicia de los demás.
La mayoría falla en esto al hacer de ser el "chico de las criptomonedas" o "inversor" toda su persona. Incluso si estás en línea 16 horas al día, aún necesitas tener intereses y ambiciones fuera de esta industria.
Los amigos deberían querer pasar tiempo contigo por la calidad de tu presencia y la diferencia de ánimo que haces al estar allí, no por cuántos números has hecho en una pantalla.
Vivir una vida privada y aislada con un pequeño círculo de individuos de calidad es el mayor truco de vida para la paz mental.
Si tu presencia no hace que las personas sientan algo sin hablar de dinero, ya has perdido.
5,72K
¿Qué es $CODEC?
¿Robótica, Operadores, Juegos?
Todo lo anterior y más.
La visión-lenguaje-acción (VLA) de Codec es un modelo independiente del marco, que permite docenas de casos de uso debido a su capacidad única para visualizar errores en comparación con los LLM.
En los últimos 12 meses, hemos visto que los LLM funcionan principalmente como mecanismos de bucle, impulsados por datos y patrones de respuesta predefinidos.
Debido a que están construidos sobre el habla y el texto, los LLM tienen una capacidad limitada para evolucionar más allá de la ventana de contexto lingüístico en la que fueron entrenados. No pueden interpretar entradas sensoriales, como expresiones faciales o señales emocionales en tiempo real, ya que su razonamiento está limitado al lenguaje, no a la percepción.
La mayoría de los agentes hoy en día combinan LLM basados en transformadores con codificadores visuales. "Ven" la interfaz a través de capturas de pantalla, interpretan lo que hay en la pantalla y generan secuencias de acciones, clics, pulsaciones de teclas, desplazamientos para seguir instrucciones y completar tareas.
Por eso la IA aún no ha reemplazado grandes categorías de trabajos: los LLM ven capturas de pantalla, no píxeles. No entienden la semántica visual dinámica del entorno, solo lo que es legible a través de marcos estáticos.
Su flujo de trabajo típico es repetitivo: capturar una captura de pantalla, razonar sobre la siguiente acción, ejecutarla, luego capturar otro marco y repetir. Este bucle de percibir-pensar continúa hasta que se completa la tarea o el agente falla.
Para generalizar verdaderamente, la IA debe percibir su entorno, razonar sobre su estado y actuar apropiadamente para lograr objetivos, no solo interpretar instantáneas.
Ya tenemos macros, bots RPA y scripts de automatización, pero son débiles e inestables. Un ligero cambio de píxel o de diseño rompe el flujo y requiere parches manuales. No pueden adaptarse cuando algo cambia en el flujo de trabajo. Ese es el cuello de botella.
Visión-Lenguaje-Acción (VLA)
Los agentes VLA de Codec funcionan en un bucle intuitivo pero poderoso: percibir, pensar, actuar. En lugar de simplemente escupir texto como la mayoría de los LLM, estos agentes ven su entorno, deciden qué hacer y luego ejecutan. Todo está empaquetado en un único pipeline unificado, que puedes visualizar en tres capas centrales:
Visión
El agente primero percibe su entorno a través de la visión. Para un agente de escritorio, esto significa capturar una captura de pantalla o entrada visual del estado actual (por ejemplo, una ventana de aplicación o un cuadro de texto). El componente de visión del modelo VLA interpreta esta entrada, leyendo el texto en pantalla y reconociendo elementos de la interfaz u objetos. Es decir, los ojos del agente.
Lenguaje
Luego viene el pensamiento. Dado el contexto visual (y cualquier instrucción u objetivo), el modelo analiza qué acción se requiere. Esencialmente, la IA "piensa" sobre la respuesta apropiada, al igual que lo haría una persona. La arquitectura VLA fusiona visión y lenguaje internamente, por lo que el agente puede, por ejemplo, entender que un cuadro de diálogo emergente está haciendo una pregunta de sí/no. Luego decidirá sobre la acción correcta (por ejemplo, hacer clic en "Aceptar") según el objetivo o la indicación. Sirviendo como el cerebro del agente, mapeando las entradas percibidas a una acción.
Acción
Finalmente, el agente actúa emitiendo un comando de control al entorno. En lugar de texto, el modelo VLA genera una acción (como un clic del mouse, pulsación de tecla o llamada a la API) que interactúa directamente con el sistema. En el ejemplo del cuadro de diálogo, el agente ejecutaría el clic en el botón "Aceptar". Esto cierra el bucle: después de actuar, el agente puede verificar visualmente el resultado y continuar el ciclo de percibir–pensar–actuar. Las acciones son el separador clave que los convierte de cuadros de chat a operadores reales.
Casos de Uso
Como mencioné, debido a la arquitectura, Codec es agnóstico a la narrativa. Así como los LLM no están confinados por los resultados textuales que pueden producir, los VLA no están confinados por las tareas que pueden completar.
Robótica
En lugar de depender de scripts antiguos o automatización imperfecta, los agentes VLA toman entradas visuales (transmisión de cámara o sensores), las pasan a través de un modelo de lenguaje para la planificación, y luego emiten comandos de control reales para mover o interactuar con el mundo.
Básicamente, el robot ve lo que tiene delante, procesa instrucciones como "mueve la lata de Pepsi junto a la naranja", averigua dónde está todo, cómo moverse sin derribar nada, y lo hace sin necesidad de codificación dura.
Este es el mismo tipo de sistema que el RT-2 de Google o PaLM-E. Grandes modelos que fusionan visión y lenguaje para crear acciones en el mundo real. El trabajo VLA de CogAct es un buen ejemplo, el robot escanea una mesa desordenada, recibe un aviso natural y ejecuta un bucle completo: identificación de objeto, planificación de ruta, ejecución de movimiento.
Operadores
En el entorno de escritorio y web, los agentes VLA funcionan básicamente como trabajadores digitales. "Ven" la pantalla a través de una captura de pantalla o transmisión en vivo, ejecutan eso a través de una capa de razonamiento construida sobre un modelo de lenguaje para entender tanto la interfaz de usuario como la indicación de tarea, y luego ejecutan las acciones con control real del mouse y teclado, como lo haría un humano.
Este bucle completo, percibir, pensar, actuar, se ejecuta continuamente. Así que el agente no solo reacciona una vez, está navegando activamente por la interfaz, manejando flujos de múltiples pasos sin necesidad de scripts codificados. La arquitectura es una mezcla de visión estilo OCR para leer texto/botones/iconos, razonamiento semántico para decidir qué hacer, y una capa de control que puede hacer clic, desplazarse, escribir, etc.
Donde esto se vuelve realmente interesante es en el manejo de errores. Estos agentes pueden reflexionar después de las acciones y replantear si algo no sale como se esperaba. A diferencia de los scripts RPA que se rompen si la interfaz cambia ligeramente, como un botón que cambia de posición o una etiqueta que se renombra, un agente VLA puede adaptarse al nuevo diseño utilizando señales visuales y comprensión del lenguaje. Lo hace mucho más resistente para la automatización en el mundo real donde las interfaces cambian constantemente.
Algo con lo que he luchado personalmente al codificar mis propios bots de investigación a través de herramientas como playwright.
Juegos
Los juegos son uno de los casos de uso más claros donde los agentes VLA pueden brillar, piénsalo menos como bots y más como jugadores de IA inmersivos. Todo el flujo es el mismo, el agente ve la pantalla del juego (fotogramas, menús, indicaciones de texto), razona sobre lo que se supone que debe hacer, y luego juega utilizando entradas de mouse, teclado o control.
No se centra en la fuerza bruta, esta es la IA aprendiendo a jugar como lo haría un humano. Percepción + pensamiento + control, todo unido. El proyecto SIMA de DeepMind ha desbloqueado esto al combinar un modelo de visión-lenguaje con una capa predictiva y lo ha implementado en juegos como No Man’s Sky y Minecraft. Al observar la pantalla y seguir instrucciones, el agente podría completar tareas abstractas como "construir una fogata" encadenando los pasos correctos, recolectar madera, encontrar fósforos y usar el inventario. Y no se limitó a un solo juego. Transfería ese conocimiento entre diferentes entornos.
Los agentes de juegos VLA no están bloqueados en un solo conjunto de reglas. El mismo agente puede adaptarse a mecánicas completamente diferentes, solo a partir de la base de visión y lenguaje. Y dado que está construido sobre la infraestructura de LLM, puede explicar lo que está haciendo, seguir instrucciones en lenguaje natural durante el juego, o colaborar con los jugadores en tiempo real.
No estamos lejos de tener compañeros de IA que se adapten a tu estilo de juego y personalizaciones, todo gracias a Codec.

9,22K
El éxito de ICM no depende de Launchcoin ni de ninguna plataforma única.
Es un cambio de régimen en cómo vemos los proyectos de utilidad en la cadena.
Pasamos de lanzamientos de miles de millones de dólares a pumpfun debido a desajustes insanos en el precio y los fundamentos.
Ahora estamos cambiando de vaporware a proyectos con usuarios reales, volumen e ingresos.
La mayoría se rendirá justo cuando estemos a punto de lograr una adopción real.
6,58K
Una discrepancia en el precio y los fundamentos.
$KNET ($8 millones) vs $ALCH ($120 millones)
@Kingnet_AI
Se encarga de todo, desde modelado 2D/3D hasta rigging completo de personajes, animaciones e incluso generación de código, directamente desde indicaciones en lenguaje natural. La interfaz sin código significa que cualquiera puede pasar de una idea a un demo jugable de juego Web3 sin tocar una línea de código. Acelera las construcciones, reduce costos y baja masivamente la barrera de entrada.
Está orientado hacia desarrolladores de juegos nativos de Web3, constructores independientes y pequeños estudios. Énfasis fuerte en la generación de activos + prototipado de extremo a extremo. Básicamente convierte el desarrollo de juegos en un flujo de trabajo visual de IA, destinado a obtener más contenido más rápido, incluso si no eres técnico.
KNET alimenta todo, pagos, consultas de IA y eventualmente el mercado para activos generados. También tiene ganchos de gobernanza. Está vinculado a KingNet (una gran empresa pública de juegos) y ya está conectado a Solana, BNB, TON. Se están viendo tracciones tempranas + victorias en hackatones.
Kingnet AI está respaldado por Kingnet Network Co. Ltd, un gigante de juegos chino que cotiza en bolsa y fue fundado en 2008. Con un historial de títulos exitosos como Happy Tower, Shushan Legend, MU Miracle y World of Warships Blitz, la empresa es uno de los incubadores más renombrados en juegos móviles. Kingnet AI es construido por SmileCobra Studio (Singapur) en asociación exclusiva con la rama de Kingnet en Hong Kong. La empresa matriz está valorada en más de $5 mil millones con $1 mil millones en su balance.
@alchemistAIapp
Una plataforma más amplia sin código que convierte las indicaciones de los usuarios en aplicaciones o juegos completamente funcionales.
Utiliza un motor de IA de múltiples agentes (múltiples modelos especializados) para analizar las indicaciones de los usuarios, generar código, crear visuales y ensamblar aplicaciones completas en tiempo real. Apunta a una amplia base de usuarios, desde aficionados hasta constructores de Web3, que buscan prototipar rápidamente herramientas, juegos o sitios web.
La experiencia de usuario es muy simplificada, por ejemplo, ingresas “un juego de serpiente con un fondo de madera marrón”, y la interfaz del Laboratorio Sagrado de Alchemist organiza agentes de IA para producir código de front end, lógica de juego e incluso gráficos personalizados.
ALCH se utiliza en el mercado Arcane Forge y para acceder a los servicios de IA de Alchemist. Los usuarios pueden ganar ALCH vendiendo aplicaciones o juegos útiles, el mercado tiene características de propinas y descubrimiento para recompensar aplicaciones populares.
Alchemist fue fundado en 2024 por un equipo en Vietnam, liderado por Thien Phung Van (fundador/CFO), Trong Pham Van (cofundador) y Duc Loc “Louis” Nguyen (CTO). Con antecedentes en software y emprendimiento (Thien fue anteriormente CEO/CFO en Vistia), el pequeño equipo lanzó Alchemist como una startup no financiada.
Resumen; Kingnet AI está especializado, con un enfoque en automatizar la creación de juegos de extremo a extremo para Web3, respaldado por una infraestructura de juegos probada. Alchemist AI es más amplio en alcance, ofreciendo una interfaz rápida de LLM para construir herramientas y juegos únicos con atractivo comercial. Kingnet tiene una profundidad de dominio en juegos, mientras que Alchemist tiene un alcance amplio en varios casos de uso.
Basado en esto, está bastante claro que Kingnet está severamente subvalorado en comparación. Kingnet está mucho más temprano en su ciclo de vida del producto y no ha desarrollado completamente su experiencia de usuario e interfaces, aunque la calidad del equipo, la experiencia y el respaldo superan significativamente a la plataforma de Alchemist mientras que su capitalización de mercado es 15 veces menor.
27,78K
La gente sigue felicitándome por $CODEC, ¿por qué?
Hasta ahora, ni siquiera hemos visto:
- Utilidad del token
- Incentivos
- Hoja de ruta
- Demos
- Nuevo sitio web
- Mercado
- Futuras asociaciones
- Casos de uso
+ más
Todo lo que hemos visto son un par de asociaciones y el lanzamiento de su agregador de recursos (Fabric).
No escribí múltiples hilos, múltiples publicaciones en telegram, hablé con el equipo casi a diario, asesoré sobre el marketing, la marca, el posicionamiento para celebrar una capitalización de mercado de 6 millones.
Un wrapper de chatgpt de una chica de anime con cabello rosa fue suficiente para una capitalización de 6 millones en la época de la IA.
Los proyectos estaban enviando a 9 cifras de la noche a la mañana por ganar un hackathon o ser destacados por grandes KOLs/investigadores.
Todos han olvidado lo que sucede cuando se encienden las luces y la gente cree una vez más.
La razón por la que he cambiado a tan optimista esta última semana por onchain es que la creencia está en mínimos históricos. El mes pasado ha sido uno de los mayores progresos que hemos hecho en esta industria junto con un contexto macro positivo.
¿Recuerdas esa sensación de dinero cayendo del cielo? Puede que no pase mucho tiempo hasta que volvamos a experimentarlo.

9,39K
Parte superior
Clasificación
Favoritos
En tendencia on-chain
En tendencia en X
Principales fondos recientes
Más destacado