$CODEC: Infra för Seende-Språk-Handlingsagenter; AI-utförande i RealWorld - Codec ger operatörer, agenter som uppfattar, resonerar och agerar med hjälp av VLA-modeller (Vision-Language-Action). - Till skillnad från LLM:er avger operatörer körbar kontroll: klick, tangenttryckningar, robotsignaler, inte bara text. - @codecopenflow kör hela stacken: syninmatning → språkresonemang → verkliga handlingar i en enda adaptiv loop. - Byggd på Mixtral-8x7B + CogVLM; Träning i begränsat läge möjliggör säker iteration före livedistribution. - @RoboMove är den första live-demon; SDK/API lanseras snart för agentbyggare inom användargränssnitt, robotik och spel. - Operatörsdesign hanterar layoutförskjutningar, fel och flerstegsflöden utan sköra skript. - Färdplanen inkluderar intäktsgenererande operatörsmarknadsplats, Solana-baserade loggar och staking för säkerhet. - Grundat av @_lilkm_ (ex huggingface) och @unmoyai (elixir); positioneras som kärninfrastruktur för förkroppsligad AI. - Katalysatorer: SDK-start, distribution av tredjepartsagenter och demonstrationer över flera domäner
1,58K