$CODEC : Infrastructure pour les agents Vision-Langage-Action ; Exécution AI dans le monde réel - Codec alimente les Opérateurs, des agents qui perçoivent, raisonnent et agissent en utilisant des modèles VLA (Vision-Langage-Action). - Contrairement aux LLM, les Opérateurs émettent un contrôle exécutable : clics, frappes au clavier, signaux robotiques, pas seulement du texte. - @codecopenflow exécute l'ensemble de la pile : entrée visuelle → raisonnement linguistique → actions dans le monde réel dans une boucle adaptative unique. - Construit sur Mixtral-8x7B + CogVLM ; l'entraînement en bac à sable permet une itération sécurisée avant le déploiement en direct. - @RoboMove est la première démo en direct ; SDK/API à venir bientôt pour les constructeurs d'agents dans les domaines de l'UI, de la robotique et du jeu. - La conception des Opérateurs gère les changements de mise en page, les erreurs et les flux multi-étapes sans scripts fragiles. - La feuille de route inclut un marché d'Opérateurs monétisables, des journaux basés sur Solana et du staking pour la sécurité. - Fondé par @_lilkm_ (ancien de huggingface) et @unmoyai (elixir) ; positionné comme une infrastructure centrale pour l'IA incarnée. - Catalyseurs : lancement du SDK, déploiement d'agents tiers et démos inter-domaines.
1,81K