$CODEC: Infra for syns-språk-handlingsagenter; Utførelse av kunstig intelligens i den virkelige verden - Kodek driver operatører, agenter som oppfatter, resonnerer og handler ved hjelp av VLA-modeller (Vision-Language-Action). - I motsetning til LLM-er, sender operatører ut kjørbar kontroll: klikk, tastetrykk, robotsignaler, ikke bare tekst. - @codecopenflow kjører hele stabelen: visjonsinndata → språkresonnement → handlinger i den virkelige verden i en enkelt adaptiv sløyfe. - Bygget på Mixtral-8x7B + CogVLM; Opplæring i sandkasse muliggjør sikker gjentakelse før direkte distribusjon. - @RoboMove er den første live-demoen; SDK/API lanseres snart for agentbyggere på tvers av brukergrensesnitt, robotikk og spill. - Operatørdesign håndterer layoutendringer, feil og flertrinnsflyter uten sprø skript. - Veikart inkluderer inntektsgenererende operatørmarkedsplass, Solana-baserte logger og innsats for sikkerhet. - Grunnlagt av @_lilkm_ (ex huggingface) og @unmoyai (eliksir); posisjonert som kjerneinfrastruktur for legemliggjort AI. - Katalysatorer: SDK-lansering, distribusjon av tredjepartsagenter og demonstrasjoner på tvers av domener
1,8K