$CODEC: Infrastructuur voor Vision-Language-Action Agents; RealWorld AI Uitvoering - Codec ondersteunt Operators, agents die waarnemen, redeneren en handelen met behulp van VLA (Vision-Language-Action) modellen. - In tegenstelling tot LLM's, geven Operators uitvoerbare controle: klikken, toetsaanslagen, robotische signalen, niet alleen tekst. - @codecopenflow draait de volledige stack: visuele invoer → taalkundige redenering → acties in de echte wereld in een enkele adaptieve lus. - Gebouwd op Mixtral-8x7B + CogVLM; sandboxed training maakt veilige iteratie mogelijk voordat live implementatie plaatsvindt. - @RoboMove is de eerste live demo; SDK/API wordt binnenkort gelanceerd voor agentbouwers in UI, robotica en gaming. - Operatorontwerp houdt rekening met lay-outverschuivingen, fouten en multi-stap flows zonder kwetsbare scripts. - Roadmap omvat een te gelde te maken Operator-marktplaats, op Solana gebaseerde logs en staking voor veiligheid. - Opgericht door @_lilkm_ (ex huggingface) en @unmoyai (elixir); gepositioneerd als kerninfrastructuur voor belichaamde AI. - Catalysatoren: SDK-lancering, implementatie van derden-agenten en cross-domain demo's.
1,81K