Rubriques tendance
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Trissy
Une dernière course haussière
Les protocoles et les équipes devraient cesser de payer des KOLs pour du contenu.
La seule fois où les équipes devraient distribuer des tokens, c'est aux KOLs ou aux membres de la communauté qui créent une valeur élevée pour leur projet et qui apportent des résultats.
Votre produit ou votre récit devrait être suffisamment intéressant pour que les personnes influentes veuillent automatiquement l'acheter et en parler naturellement.
Ce sont ceux à qui vous devriez allouer des tokens, et non pas faire 3 fils payés pour des ambassadeurs qui gonflent leur nombre de followers.
"Que faire si je ne peux intéresser personne à mon produit pour tweeter ?" Alors continuez à construire, vous n'avez clairement pas trouvé le bon créneau ou vous n'avez pas assez réseauté si vous ne pouvez pas construire quelques supporters de base.
Mon message aux bâtisseurs : construisez quelque chose de suffisamment cool pour que les gens veuillent naturellement l'acheter et en parler, donnez des tokens aux plus grands supporters qui s'alignent avec votre vision. Puisque :
1. Ils seront beaucoup plus susceptibles de travailler dur et de faire des efforts supplémentaires pour vous aider à réussir puisque vous avez démontré un comportement moral fort (une rareté dans cet espace)
2. Ceux que vous payez pour un certain nombre de publications vont se désister dès que leur contrat est terminé et vont vendre les tokens.
Je ne fais pas de promotions payantes de quelque sorte que ce soit, mais je ne vais évidemment pas refuser des tokens gratuits pour un projet sur lequel je suis extrêmement optimiste sans conditions. Les meilleurs écrivains ne peuvent pas être achetés et seront repoussés si vous essayez de le faire.
Jouez sur le long terme et ne prenez pas de raccourcis, cela se reflétera dans vos actions à travers chaque vertical de l'entreprise et les traders intelligents peuvent le sentir à des kilomètres.
Les campagnes KOL sont mortes, 99,9 % des agences de marketing sont une perte d'argent et seront -év pour votre entreprise.
La seule façon de pénétrer ce marché est d'avoir des membres d'équipe natifs de la crypto qui sont prêts à se retrousser les manches.
3,01K
OpenAI vient de confirmer ma thèse étoile du nord pour l'IA aujourd'hui en lançant leur agent opérateur.
Non seulement c'était ma thèse directrice pour $CODEC, mais aussi pour chaque autre investissement en IA que j'ai réalisé, y compris ceux du début de l'année pendant la folie de l'IA.
Il y a eu beaucoup de discussions avec Codec concernant la robotique, bien que ce secteur ait bientôt sa propre narration, la raison sous-jacente pour laquelle j'étais si optimiste sur Codec depuis le premier jour est due à la façon dont son architecture alimente les agents opérateurs.
Les gens sous-estiment encore combien de parts de marché sont en jeu en construisant des logiciels qui fonctionnent de manière autonome, surpassant les travailleurs humains sans avoir besoin de rappels constants ou de supervision.
J'ai vu beaucoup de comparaisons avec $NUIT. Tout d'abord, je tiens à dire que je suis un grand fan de ce que Nuit construit et je ne souhaite que leur succès. Si vous tapez "nuit" dans mon telegram, vous verrez qu'en avril, j'ai dit que si je devais détenir une seule pièce pendant plusieurs mois, ce serait Nuit en raison de ma thèse opérateur.
Nuit était le projet opérateur le plus prometteur sur le papier, mais après des recherches approfondies, j'ai constaté que leur architecture manquait de la profondeur nécessaire pour justifier un investissement majeur ou mettre ma réputation derrière elle.
Cela dit, j'étais déjà conscient des lacunes architecturales dans les équipes d'agents opérateurs existantes et je cherchais activement un projet qui y remédierait. Peu après, Codec est apparu (merci à @0xdetweiler d'avoir insisté pour que je les examine de plus près) et voici la différence entre les deux :
$CODEC vs $NUIT
L'architecture de Codec est construite sur trois couches : Machine, Système et Intelligence, qui séparent l'infrastructure, l'interface environnementale et la logique IA. Chaque agent opérateur dans Codec fonctionne dans sa propre VM ou conteneur isolé, permettant une performance presque native et une isolation des pannes. Ce design en couches signifie que les composants peuvent évoluer ou se développer indépendamment sans casser le système.
L'architecture de Nuit prend un chemin différent en étant plus monolithique. Leur pile tourne autour d'un agent de navigateur web spécialisé qui combine parsing, raisonnement IA et action. Cela signifie qu'ils analysent profondément les pages web en données structurées pour que l'IA puisse les consommer et s'appuient sur le traitement cloud pour les tâches IA lourdes.
L'approche de Codec d'intégrer un modèle Vision-Language-Action (VLA) léger dans chaque agent signifie qu'il peut fonctionner entièrement localement. Ce qui ne nécessite pas de ping constant vers le cloud pour des instructions, éliminant la latence et évitant la dépendance à la disponibilité et à la bande passante.
L'agent de Nuit traite les tâches en convertissant d'abord les pages web en un format sémantique, puis en utilisant un cerveau LLM pour déterminer quoi faire, ce qui s'améliore avec le temps grâce à l'apprentissage par renforcement. Bien que cela soit efficace pour l'automatisation web, ce flux dépend d'un traitement IA lourd côté cloud et de structures de page prédéfinies. L'intelligence locale de Codec signifie que les décisions se prennent plus près des données, réduisant les frais généraux et rendant le système plus stable face aux changements inattendus (pas de scripts fragiles ou d'hypothèses DOM).
Les opérateurs de Codec suivent une boucle continue de perception–réflexion–action. La couche machine diffuse l'environnement (par exemple, un flux d'application en direct ou de robot) à la couche d'intelligence via les canaux optimisés de la couche système, donnant à l'IA des "yeux" sur l'état actuel. Le modèle VLA de l'agent interprète ensuite les visuels et les instructions ensemble pour décider d'une action, que la couche système exécute par le biais d'événements clavier/souris ou de contrôle de robot. Cette boucle intégrée signifie qu'elle s'adapte aux événements en direct, même si l'interface utilisateur change, vous ne casserez pas le flux.
Pour mettre tout cela dans une analogie plus simple, pensez aux opérateurs de Codec comme à un employé autonome qui s'adapte aux surprises au travail. L'agent de Nuit est comme un employé qui doit faire une pause, décrire la situation à un superviseur au téléphone et attendre des instructions.
Sans trop entrer dans un trou technique, cela devrait vous donner une idée générale sur pourquoi j'ai choisi Codec comme mon pari principal sur les opérateurs.
Oui, Nuit a le soutien de YC, une équipe solide et un GitHub de niveau S. Bien que l'architecture de Codec ait été construite avec l'évolutivité horizontale à l'esprit, ce qui signifie que vous pouvez déployer des milliers d'agents en parallèle sans mémoire partagée ni contexte d'exécution entre les agents. L'équipe de Codec n'est pas non plus composée de développeurs moyens.
Leur architecture VLA ouvre une multitude de cas d'utilisation qui n'étaient pas possibles avec les modèles d'agents précédents en raison de la vision à travers les pixels, pas les captures d'écran.
Je pourrais continuer, mais je vais garder cela pour de futurs posts.
15,74K
Le fait est que, si vous voulez vraiment réussir dans cet espace, tout le monde autour de vous pensera qu'il y a quelque chose qui ne va pas chez vous.
Pour vraiment faire partie des 0,001 %, la vie en dehors des tranchées est presque inexistante.
Pas de filles, pas de loisirs, pas de sorties sociales, pas de Netflix ou quoi que ce soit qui vous éloigne du travail.
C'est un type d'état d'esprit qui est extrêmement difficile à comprendre même pour des athlètes professionnels, car il n'y a aucune raison de ne pas être en ligne 24/7.
Nous sommes coincés dans notre propre paradoxe de liberté.
Tout le monde veut la capacité magique de cliquer sur des boutons pour gagner de l'argent, jusqu'à ce qu'il soit temps de dire non à 95 % des plaisirs.
Les amis et la famille lanceront constamment des sous-entendus suggérant que vous avez une forme de maladie mentale et ne verront jamais vraiment la vision.
La jalousie monte lorsque des bribes de succès apparaissent, si vous observez les gens de près, ils révèlent toujours leurs véritables intentions, même s'ils ne le voulaient pas.
Les plus petits indices les trahiront, généralement à partir de réactions émotionnelles spontanées dans le moment où il suffit d'entendre quelques mots glisser, la plupart du temps c'est tout ce qu'il faut.
À mesure que vous devenez plus réussi, apprenez à rester silencieux. Il n'est pas nécessaire de mentionner vos progrès, aussi génial que cela puisse être de partager avec tout le monde et de profiter des fruits de votre travail, cela n'attirera que la cupidité des autres.
La plupart échouent à cela car ils font de leur identité entière le fait d'être le "gars de la crypto" ou "investisseur". Même si vous êtes en ligne 16 heures par jour, vous devez toujours avoir des intérêts et des ambitions en dehors de cette industrie.
Les amis devraient vouloir passer du temps avec vous pour la qualité de votre présence et la différence d'humeur que vous apportez, pas pour combien de chiffres vous avez réalisés sur un écran.
Vivre une vie privée, isolée avec un petit cercle d'individus de qualité est le meilleur hack de vie pour la paix d'esprit.
Si votre présence ne fait pas ressentir quelque chose aux gens sans parler d'argent, vous avez déjà perdu.
5,72K
Qu'est-ce que $CODEC
Robotique, Opérateurs, Jeux ?
Tout cela et plus encore.
La vision-langage-action (VLA) de Codec est un modèle indépendant du cadre, permettant des dizaines de cas d'utilisation grâce à sa capacité unique à visualiser les erreurs par rapport aux LLM.
Au cours des 12 derniers mois, nous avons constaté que les LLM fonctionnent principalement comme des mécanismes de boucle, alimentés par des données et des modèles de réponse prédéfinis.
Parce qu'ils sont construits sur la parole et le texte, les LLM ont une capacité limitée à évoluer au-delà de la fenêtre de contexte linguistique sur laquelle ils sont formés. Ils ne peuvent pas interpréter les entrées sensorielles, comme les expressions faciales ou les indices émotionnels en temps réel, car leur raisonnement est lié à la langue, pas à la perception.
La plupart des agents aujourd'hui combinent des LLM basés sur des transformateurs avec des encodeurs visuels. Ils "voient" l'interface à travers des captures d'écran, interprètent ce qui est à l'écran et génèrent des séquences d'actions, de clics, de frappes au clavier, de défilements pour suivre des instructions et accomplir des tâches.
C'est pourquoi l'IA n'a pas encore remplacé de grandes catégories d'emplois : les LLM voient des captures d'écran, pas des pixels. Ils ne comprennent pas la sémantique visuelle dynamique de l'environnement, seulement ce qui est lisible à travers des images statiques.
Leur flux de travail typique est répétitif : capturer une capture d'écran, raisonner sur la prochaine action, l'exécuter, puis capturer un autre cadre et répéter. Cette boucle percevoir-penser continue jusqu'à ce que la tâche soit terminée ou que l'agent échoue.
Pour véritablement généraliser, l'IA doit percevoir son environnement, raisonner sur son état et agir de manière appropriée pour atteindre des objectifs, pas seulement interpréter des instantanés.
Nous avons déjà des macros, des bots RPA et des scripts d'automatisation, mais ils sont faibles et instables. Un léger déplacement de pixel ou un changement de mise en page casse le flux et nécessite un patch manuel. Ils ne peuvent pas s'adapter lorsque quelque chose change dans le flux de travail. C'est le goulet d'étranglement.
Vision-Language-Action (VLA)
Les agents VLA de Codec fonctionnent sur une boucle intuitive mais puissante : percevoir, penser, agir. Au lieu de simplement cracher du texte comme la plupart des LLM, ces agents voient leur environnement, décident quoi faire puis exécutent. Tout est emballé dans un pipeline unifié, que vous pouvez visualiser en trois couches principales :
Vision
L'agent perçoit d'abord son environnement par la vision. Pour un agent Opérateur de bureau, cela signifie capturer une capture d'écran ou une entrée visuelle de l'état actuel (par exemple, une fenêtre d'application ou une zone de texte). Le composant vision du modèle VLA interprète cette entrée, lit le texte à l'écran et reconnaît les éléments ou objets de l'interface. Autrement dit, les yeux de l'agent.
Langage
Puis vient la réflexion. Étant donné le contexte visuel (et toutes instructions ou objectifs), le modèle analyse quelle action est requise. Essentiellement, l'IA "pense" à la réponse appropriée tout comme une personne le ferait. L'architecture VLA fusionne vision et langage en interne, de sorte que l'agent peut, par exemple, comprendre qu'une boîte de dialogue contextuelle pose une question oui/non. Il décidera alors de l'action correcte (par exemple, cliquer sur "OK") en fonction de l'objectif ou de l'invite. Servant de cerveau à l'agent, mappant les entrées perçues à une action.
Action
Enfin, l'agent agit en émettant une commande de contrôle à l'environnement. Au lieu de texte, le modèle VLA génère une action (comme un clic de souris, une frappe au clavier ou un appel API) qui interagit directement avec le système. Dans l'exemple de la boîte de dialogue, l'agent exécuterait le clic sur le bouton "OK". Cela ferme la boucle : après avoir agi, l'agent peut vérifier visuellement le résultat et continuer le cycle percevoir–penser–agir. Les actions sont le séparateur clé qui les transforme de simples boîtes de chat en véritables opérateurs.
Cas d'utilisation
Comme je l'ai mentionné, en raison de l'architecture, Codec est narrativement agnostique. Tout comme les LLM ne sont pas confinés par les sorties textuelles qu'ils peuvent produire, les VLA ne sont pas confinés par les tâches qu'ils peuvent accomplir.
Robotique
Au lieu de s'appuyer sur de vieux scripts ou une automatisation imparfaite, les agents VLA prennent des entrées visuelles (flux de caméra ou capteurs), les passent à travers un modèle de langage pour la planification, puis émettent de réelles commandes de contrôle pour se déplacer ou interagir avec le monde.
En gros, le robot voit ce qui est devant lui, traite des instructions comme "déplacer la canette de Pepsi à côté de l'orange", détermine où tout se trouve, comment se déplacer sans renverser quoi que ce soit, et le fait sans codage nécessaire.
C'est la même classe de système que le RT-2 ou PaLM-E de Google. De grands modèles qui fusionnent vision et langage pour créer des actions dans le monde réel. Le travail VLA de CogAct est un bon exemple, le robot scanne une table en désordre, reçoit une invite naturelle et exécute une boucle complète : identification d'objet, planification de chemin, exécution de mouvement.
Opérateurs
Dans l'environnement de bureau et web, les agents VLA fonctionnent essentiellement comme des travailleurs numériques. Ils "voient" l'écran à travers une capture d'écran ou un flux en direct, passent cela à travers une couche de raisonnement construite sur un modèle de langage pour comprendre à la fois l'UI et l'invite de tâche, puis exécutent les actions avec un contrôle réel de la souris et du clavier, comme un humain le ferait.
Cette boucle complète, percevoir, penser, agir, fonctionne en continu. Donc l'agent ne réagit pas juste une fois, il navigue activement dans l'interface, gérant des flux d'étapes multiples sans avoir besoin de scripts codés en dur. L'architecture est un mélange de vision de style OCR pour lire le texte/boutons/icônes, de raisonnement sémantique pour décider quoi faire, et d'une couche de contrôle qui peut cliquer, faire défiler, taper, etc.
Là où cela devient vraiment intéressant, c'est dans la gestion des erreurs. Ces agents peuvent réfléchir après les actions et replanifier si quelque chose ne se passe pas comme prévu. Contrairement aux scripts RPA qui se cassent si une interface utilisateur change légèrement, comme un bouton changeant de position ou une étiquette étant renommée, un agent VLA peut s'adapter à la nouvelle mise en page en utilisant des indices visuels et une compréhension du langage. Cela le rend beaucoup plus résilient pour l'automatisation dans le monde réel où les interfaces changent constamment.
C'est quelque chose avec lequel j'ai personnellement eu du mal en codant mes propres bots de recherche à travers des outils comme playwright.
Jeux
Le jeu est l'un des cas d'utilisation les plus clairs où les agents VLA peuvent briller, pensez à eux moins comme des bots et plus comme des joueurs IA immersifs. Tout le flux est le même, l'agent voit l'écran de jeu (images, menus, invites de texte), raisonne sur ce qu'il est censé faire, puis joue en utilisant des entrées de souris, de clavier ou de manette.
Ce n'est pas axé sur la force brute, c'est une IA apprenant à jouer comme un humain le ferait. Perception + pensée + contrôle, le tout lié ensemble. Le projet SIMA de DeepMind a débloqué cela en combinant un modèle de vision-langage avec une couche prédictive et l'a intégré dans des jeux comme No Man's Sky et Minecraft. En regardant simplement l'écran et en suivant les instructions, l'agent pouvait accomplir des tâches abstraites comme "construire un feu de camp" en enchaînant les bonnes étapes, rassembler du bois, trouver des allumettes et utiliser l'inventaire. Et il n'était pas limité à un seul jeu non plus. Il a transféré cette connaissance entre différents environnements.
Les agents de jeu VLA ne sont pas enfermés dans un seul ensemble de règles. Le même agent peut s'adapter à des mécaniques complètement différentes, juste à partir de la vision et de la base linguistique. Et parce qu'il est construit sur une infrastructure LLM, il peut expliquer ce qu'il fait, suivre des instructions en langage naturel en cours de jeu, ou collaborer avec des joueurs en temps réel.
Nous ne sommes pas loin d'avoir des coéquipiers IA qui s'adaptent à votre style de jeu et à vos personnalisations, tout cela grâce à Codec.

9,22K
Le succès d'ICM ne dépend pas de Launchcoin ou de toute autre plateforme unique.
C'est un changement de régime dans notre façon de voir les projets utilitaires sur la chaîne.
Nous sommes passés de lancements de plusieurs milliards de dollars à des pumpfun en raison d'un décalage insensé entre le prix et les fondamentaux.
Maintenant, nous passons de la vaporware à des projets avec de vrais utilisateurs, du volume et des revenus.
La majorité abandonnera juste au moment où nous tournerons le coin de l'adoption réelle.
6,58K
Un décalage entre le prix et les fondamentaux.
$KNET (8 millions de dollars) contre $ALCH (120 millions de dollars)
@Kingnet_AI
Gère tout, de la modélisation 2D/3D aux rigs de personnages complets, animations, et même génération de code, directement à partir de prompts en langage naturel. Une interface sans code signifie que n'importe qui peut passer d'une idée à une démo de jeu Web3 jouable sans toucher une ligne de code. Accélère les constructions, réduit les coûts et abaisse considérablement la barrière.
Il est positionné vers les développeurs de jeux natifs Web3, les créateurs indépendants et les petits studios. Forte emphase sur la génération d'actifs + prototypage de bout en bout. En gros, transforme le développement de jeux en un flux de travail visuel d'IA, visant à produire plus de contenu plus rapidement, même si vous n'êtes pas technique.
KNET alimente tout, les paiements, les requêtes d'IA, et finalement le marché pour les actifs générés. Dispose également de mécanismes de gouvernance. Lié à KingNet (grande entreprise de jeux publique), et déjà intégré à Solana, BNB, TON. Observe une traction précoce + des victoires en hackathon.
Kingnet AI est soutenu par Kingnet Network Co. Ltd, un géant chinois du jeu coté en bourse, fondé en 2008. Avec un palmarès de titres à succès comme Happy Tower, Shushan Legend, MU Miracle, et World of Warships Blitz, l'entreprise est l'un des incubateurs les plus renommés dans le domaine du jeu mobile. Kingnet AI est construit par SmileCobra Studio (Singapour) en partenariat exclusif avec la branche de Kingnet à Hong Kong. La société mère est évaluée à plus de 5 milliards de dollars avec 1 milliard de dollars sur son bilan.
@alchemistAIapp
Une plateforme no code plus large qui convertit les prompts des utilisateurs en applications ou jeux entièrement fonctionnels.
Elle utilise un moteur d'IA multi-agents (plusieurs modèles spécialisés) pour analyser les prompts des utilisateurs, générer du code, créer des visuels et assembler des applications complètes en temps réel. Cible une large base d'utilisateurs, des amateurs aux créateurs Web3, cherchant à prototyper rapidement des outils, des jeux ou des sites web.
L'UX est très simplifiée, par exemple vous entrez "un jeu de serpent avec un fond en bois brun", et l'interface du Laboratoire Sacré d'Alchemist organise les agents d'IA pour produire du code front-end, de la logique de jeu, et même des graphiques personnalisés.
ALCH est utilisé dans le marché Arcane Forge et pour accéder aux services d'IA d'Alchemist. Les utilisateurs peuvent gagner des ALCH en vendant des applications ou des jeux utiles, le marché dispose de fonctionnalités de pourboire et de découverte pour récompenser les applications populaires.
Alchemist a été fondé en 2024 par une équipe au Vietnam, dirigée par Thien Phung Van (fondateur/CFO), Trong Pham Van (co-fondateur), et Duc Loc "Louis" Nguyen (CTO). Avec des antécédents en logiciel et en entrepreneuriat (Thien était auparavant CEO/CFO chez Vistia), la petite équipe a lancé Alchemist en tant que startup non financée.
TLDR; Kingnet AI est spécialisé, avec un objectif d'automatiser la création de jeux de bout en bout pour Web3, soutenu par une infrastructure de jeu éprouvée. Alchemist AI est plus large en portée, offrant une interface LLM rapide pour construire des outils et des jeux uniques avec un attrait commercial. Kingnet est profondément ancré dans le domaine du jeu, tandis qu'Alchemist est large dans plusieurs cas d'utilisation.
Sur cette base, il est assez clair que Kingnet est sévèrement sous-évalué en comparaison. Kingnet est beaucoup plus tôt dans leur cycle de vie produit et n'a pas encore pleinement développé leur UX et leurs interfaces, bien que la qualité de l'équipe, l'expérience et le soutien l'emportent significativement sur la plateforme d'Alchemist tout en étant 15 fois inférieure en capitalisation.
27,77K
Les gens continuent de me féliciter pour $CODEC, mais pourquoi ?
Jusqu'à présent, nous n'avons même pas vu :
- Utilité du token
- Incitations
- Feuille de route
- Démos
- Nouveau site web
- Marché
- Partenariats futurs
- Cas d'utilisation
+ plus
Tout ce que nous avons vu, ce sont quelques partenariats et la sortie de leur agrégateur de ressources (Fabric).
Je n'ai pas écrit plusieurs fils, plusieurs posts sur Telegram, parlé avec l'équipe presque tous les jours, conseillé sur le marketing, le branding, le positionnement pour célébrer une capitalisation de 6 millions.
Un wrapper chatgpt d'une fille anime avec des cheveux roses suffisait pour une capitalisation de 6 millions pendant la saison AI.
Les projets passaient à 9 chiffres du jour au lendemain pour avoir gagné un hackathon ou être mis en avant par de grands KOLs/rechercheurs.
Tout le monde a oublié ce qui se passe quand les lumières s'allument et que les gens croient à nouveau.
La raison pour laquelle je suis devenu si optimiste cette semaine pour onchain, c'est que la croyance est à son plus bas historique. Le mois dernier a été l'une des plus grandes avancées que nous avons réalisées dans cette industrie, avec un contexte macro positif.
Rappelez-vous ce sentiment d'argent tombant du ciel ? Il se pourrait que nous ne devions pas attendre trop longtemps avant de le revivre.

9,38K
Meilleurs
Classement
Favoris
Tendance on-chain
Tendance sur X
Récents financements de premier plan
Les plus notables