$CODEC: Infrastruktura dla agentów wizji-języka-działania; Wykonanie AI w rzeczywistym świecie - Codec napędza Operatorów, agentów, którzy postrzegają, rozumują i działają przy użyciu modeli VLA (Wizja-Język-Działanie). - W przeciwieństwie do LLM, Operatorzy emitują wykonalne polecenia: kliknięcia, naciśnięcia klawiszy, sygnały robotyczne, a nie tylko tekst. - @codecopenflow uruchamia pełny stos: wejście wizualne → rozumowanie językowe → działania w rzeczywistym świecie w jednej adaptacyjnej pętli. - Zbudowane na Mixtral-8x7B + CogVLM; szkolenie w piaskownicy umożliwia bezpieczną iterację przed wdrożeniem na żywo. - @RoboMove to pierwsza demonstracja na żywo; SDK/API wkrótce uruchomi dla twórców agentów w UI, robotyce i grach. - Projektowanie Operatorów radzi sobie z przesunięciami układu, błędami i wieloetapowymi przepływami bez kruchych skryptów. - Mapa drogowa obejmuje zmonetyzowany rynek Operatorów, logi oparte na Solanie oraz stakowanie dla bezpieczeństwa. - Założony przez @_lilkm_ (ex huggingface) i @unmoyai (elixir); pozycjonowany jako podstawowa infrastruktura dla ucieleśnionej AI. - Katalizatory: uruchomienie SDK, wdrożenie agentów przez strony trzecie oraz demonstracje międzydziedzinowe.
1,81K