$CODEC: Infrastruttura per Agenti Visione-Linguaggio-Azione; Esecuzione AI nel Mondo Reale - Codec alimenta gli Operatori, agenti che percepiscono, ragionano e agiscono utilizzando modelli VLA (Visione-Linguaggio-Azione). - A differenza dei LLM, gli Operatori emettono controlli eseguibili: clic, battute di tasti, segnali robotici, non solo testo. - @codecopenflow gestisce l'intero stack: input visivo → ragionamento linguistico → azioni nel mondo reale in un singolo ciclo adattivo. - Costruito su Mixtral-8x7B + CogVLM; l'addestramento in sandbox consente iterazioni sicure prima del deployment dal vivo. - @RoboMove è la prima demo dal vivo; SDK/API in arrivo presto per i costruttori di agenti in UI, robotica e gaming. - Il design dell'Operatore gestisce cambiamenti di layout, errori e flussi multi-step senza script fragili. - La roadmap include un marketplace di Operatori monetizzabile, log basati su Solana e staking per la sicurezza. - Fondato da @_lilkm_ (ex huggingface) e @unmoyai (elixir); posizionato come infrastruttura core per AI incarnata. - Catalizzatori: lancio SDK, deployment di agenti di terze parti e demo cross-domain.
1,81K