$CODEC: Infrastruktur für Vision-Language-Action-Agenten; RealWorld KI-Ausführung - Codec treibt Operatoren an, Agenten, die wahrnehmen, reasoning und handeln, indem sie VLA (Vision-Language-Action) Modelle verwenden. - Im Gegensatz zu LLMs geben Operatoren ausführbare Steuerungen aus: Klicks, Tastatureingaben, robotische Signale, nicht nur Text. - @codecopenflow betreibt den gesamten Stack: Visionseingabe → Sprachreasoning → reale Aktionen in einem einzigen adaptiven Loop. - Basierend auf Mixtral-8x7B + CogVLM; sandboxed Training ermöglicht sichere Iterationen vor der Live-Bereitstellung. - @RoboMove ist die erste Live-Demo; SDK/API wird bald für Agentenentwickler in den Bereichen UI, Robotik und Gaming gestartet. - Das Design der Operatoren bewältigt Layoutverschiebungen, Fehler und mehrstufige Abläufe ohne brüchige Skripte. - Der Fahrplan umfasst einen monetarisierbaren Operator-Marktplatz, Solana-basierte Protokolle und Staking für Sicherheit. - Gegründet von @_lilkm_ (ehemals huggingface) und @unmoyai (elixir); positioniert als zentrale Infrastruktur für verkörperte KI. - Katalysatoren: SDK-Start, Bereitstellung von Drittanbieter-Agenten und bereichsübergreifende Demos.
1,81K