Då och då dyker det upp ett unikt projekt som får köra sitt eget race. AI har för det mesta inte varit något annat än terminaler i chatgpt-stil och kreativ bild/video-gen. Vi har hört i flera månader att vi är på väg att alla ska förlora sina jobb på grund av AI. Ja, det har gjort alla 10 gånger mer produktiva, men vi har inte helt ersatt människor i arbetsstyrkan. Varför? De dominerande AI-assistenterna idag, från chatbots i en webbläsare till experimentella "agent"-ramverk, är starka i konversation, men strukturellt begränsade i utförandet. De förlitar sig vanligtvis på en webbläsare eller en enkel skriptmiljö för att utföra uppgifter. Även om detta fungerar för att hämta information eller grundläggande webbautomatisering, kämpar dessa agenter med komplexa processer i flera steg och går ofta sönder när saker avviker från deras begränsade väg. Nuvarande AI-agenter misslyckas eftersom de saknar beständigt minne och feltolerans, när de ställs inför oväntade fel kan de inte återhämta sig eller anpassa sig, ofta stannar de eller loopar på obestämd tid. De flesta arbetar i begränsade webbläsarbaserade miljöer och kan inte komma åt hela utbudet av företagsprogramvara, vilket gör att det rutinmässiga arbetet ligger utom räckhåll för dem. Det är därför vi inte har sett AI ersätta vardagliga företagsroller som kundsupport och administration. Inte på grund av bristande kapacitet i själva AI-modellerna, utan för att ramverken runt dem inte är tillräckligt tillförlitliga för kritiska arbetsflöden. Så vad behövs? En omarbetad systemarkitektur. En som behandlar feltolerans, minne, åtkomst, isolering och effektivitet i ett enda ramverk. I stället för att stanna vid första oväntade inmatning bör de fånga upp fel, anpassa sig och försöka med olika metoder, ungefär som människor gör när saker går fel. För att skala AI till verkliga arbetsflöden behöver den beständigt minne och uppgiftsspårning för att fungera tillförlitligt under långa tidsperioder. De kräver också fullständig åtkomst till ekosystemet, utöver webbläsarverktyg, för att använda samma programvara som människor gör, inklusive skrivbordsapplikationer. Utan säker isolering kan agenter inte arbeta säkert i dedikerade miljöer, vilket gör storskalig distribution riskabel på grund av potentiell störning mellan system. Om de vill att deras körtid ska vara konsekvent och effektiv behöver de också smart resurshantering som behandlar datorer som en levande fungerande kropp. För dem som kopplade ihop punkterna @Codecopenflow senaste Fabric-versionen allt detta och ger AI-agenter tillförlitliga, helt dedikerade operativsystem (OS) som kombinerar den kognitiva kraften hos avancerade modeller med den infrastruktur de behöver för att fungera som pålitliga digitala arbetare. Fabric i sig kan vara en helt oberoende licensierad programvara. Det omvandlar agenter från webbläsarbundna skript till autonoma operatörer med fullständig åtkomst på operativsystemnivå. På samma sätt som en DEX-aggregator dirigerar det mest effektiva priset till dig, är Fabric routningslagret som tjänar Codecs djupnivåarkitektur. Du listar din CPU, GPU, minnesbehov och eventuella regioninställningar. Detta innebär att hitta de mest kostnadseffektiva servrarna som AWS/google cloud eller GPU-resurser från Render/IO net. Codec tillhandahåller rena SDK:er och ett API för full kontroll över dessa AI-operatörer. Ett företag kan integrera Codec-agenter i sin befintliga programvarupipeline (till exempel starta upp en agent för att hantera en användarförfrågan och sedan minska den) utan att behöva uppfinna sin infrastruktur på nytt. Inom kundsupport kan agenter hantera hela arbetsflöden, frågelösning, CRM-uppdateringar, återbetalningar, vilket minskar arbetskostnaderna med upp till 90 % samtidigt som konsekvensen och drifttiden förbättras. För affärsverksamheten automatiserar Codec repetitiva administrativa processer som fakturahantering, HR-uppdateringar och försäkringsanspråk, särskilt inom sektorer med hög volym som finans och hälso- och sjukvård. Genom att fokusera på en helt isolerad miljö med flera appar för varje AI-operatör begränsas inte AI av de kritiska frågorna om tillförlitlighet och integration som tidigare ramverk inte kunde hantera. I huvudsak förvandlar vi infrastruktur för molnbaserad databehandling till en flexibel monteringslinje för AI-arbetare. Varje "arbetare" får rätt verktyg (appar, operativsystem, dataåtkomst) och en säkerhetssele (isolering + felhantering) för att göra sitt jobb. Varje förbättring av AI-modeller (GPT-5 etc.) ökar bara värdet på Codecs plattform, eftersom bättre "hjärnor" nu kan kopplas in i denna starka "kropp" för att utföra ännu mer komplexa jobb. Codec är modellagnostisk (fungerar med vilken AI-modell som helst), så den kan dra nytta av de allmänna AI-framstegen utan att vara bunden till en enda leverantörs öde. Vi befinner oss vid en brytpunkt som liknar de tidiga dagarna av cloud computing. Precis som de företag som tillhandahöll plattformarna för molnet (virtualisering, AWS:s infrastruktur, etc.) blev oumbärliga för företags-IT, kommer ett företag som tillhandahåller plattformen för AI-agenter att arbeta att erövra en enorm marknad. OpenAI har redan släppt en helt agentisk molnkodningsterminal som heter Codex. Codex kommer att vara en lokal miniversion av Codex som du kan köra på din dator, men ännu viktigare är att Codex primära modell kommer att finnas i molnet med en egen dator. Medgrundaren av OpenAI tror att de mest framgångsrika företagen i framtiden kommer att vara dessa två typer av arkitektur som slås samman. Låter bekant. Vad händer härnäst? Istället för att berätta vad som kommer härnäst, kanske det är bättre att jag pekar på vad vi inte har sett ännu: - Inget bekräftat tokenverktyg - Inga incitament - Ingen grundläggande färdplan - Inga demos - Ingen marknadsplats - Minimala partnerskap Med tanke på hur mycket som är på gång tillsammans med nya webbplatser, uppdaterade dokument, djupare likviditetspooler, community-kampanjer/marknadsföring och robotik. Codec har inte avslöjat många kort ännu. Visst kan det finnas fler färdiga webbläsarbaserade produkter för närvarande på marknaden, men hur lång tid tar det innan de är föråldrade? Detta är en investering i riktning mot AI och den primära arkitektur som kommer att ersätta mänsklig arbetskraft. Codec kodad.
Trissy
Trissy13 maj 2025
Virtuella miljöer för operatörsagenter: $CODEC Min huvudtes kring explosionen av AI har alltid kretsat kring framväxten av operatörsagenter. Men för att dessa agenter ska lyckas kräver de djup systemåtkomst, vilket i praktiken ger dem kontroll över din dator och känsliga data, vilket medför allvarliga säkerhetsproblem. Vi har redan sett hur företag som OpenAI och andra teknikjättar hanterar användardata. Även om de flesta människor inte bryr sig, gör de individer som kan dra mest nytta av operatörsagenter, de översta 1 % absolut. Personligen finns det ingen chans att jag ger ett företag som OpenAI full tillgång till min maskin, även om det innebär en 10 × ökning av produktiviteten. Så varför Codec? Codecs arkitektur är inriktad på att lansera isolerade, on-demand "molnskrivbord" för AI-agenter. Kärnan är en Kubernetes-baserad orkestreringstjänst (kodnamn Captain) som etablerar enkla virtuella datorer (VM) i Kubernetes-poddar. Varje agent får en egen isolerad miljö på operativsystemnivå (en fullständig Linux OS-instans) där den kan köra program, webbläsare eller valfri kod, helt i begränsat läge från andra agenter och värden. Kubernetes hanterar schemaläggning, automatisk skalning och självåterställning av dessa agentpoddar, vilket säkerställer tillförlitlighet och möjligheten att snurra upp/ned många agentinstanser efter belastningskrav Betrodda körningsmiljöer (TEEs) används för att skydda dessa virtuella datorer, vilket innebär att agentens dator kan isoleras kryptografiskt, dess minne och körning kan skyddas från värdoperativsystemet eller molnleverantören. Detta är avgörande för känsliga uppgifter: till exempel kan en virtuell dator som körs i en enklav innehålla API-nycklar eller kryptoplånbokshemligheter på ett säkert sätt. När en AI-agent (en LLM-baserad "hjärna") behöver utföra åtgärder skickar den API-begäranden till Captain-tjänsten, som sedan startar eller hanterar agentens VM-podd. Arbetsflödet: agenten begär en dator, Captain (via Kubernetes) allokerar en podd och kopplar en beständig volym (för den virtuella datorns disk). Agenten kan sedan ansluta till den virtuella datorn (via en säker kanal eller ett strömningsgränssnitt) för att utfärda kommandon. Kaptenen exponerar slutpunkter för agenten för att köra gränssnittskommandon, ladda upp/ladda ned filer, hämta loggar och till och med ta en ögonblicksbild av den virtuella datorn för senare återställning. Den här designen ger agenten ett fullständigt operativsystem att arbeta i, men med kontrollerad, granskad åtkomst. Eftersom den bygger på Kubernetes kan Codec automatiskt skalas vågrätt, om 100 agenter behöver miljöer kan den schemalägga 100 poddar i klustret och hantera fel genom att starta om poddar. Agentens virtuella dator kan utrustas med olika MCP-servrar (t.ex. en "USB-port" för AI). Till exempel är Codecs Conductor-modul en behållare som kör en Chrome-webbläsare tillsammans med en Microsoft Playwright MCP-server för webbläsarkontroll. Detta gör det möjligt för en AI-agent att öppna webbsidor, klicka på länkar, fylla i formulär och skrapa innehåll via vanliga MCP-samtal, som om det vore en människa som kontrollerar webbläsaren. Andra MCP-integreringar kan inkludera en filsystem-/terminal-MCP (för att låta en agent köra CLI-kommandon på ett säkert sätt) eller applikationsspecifika MCP:er (för moln-API:er, databaser osv.). I huvudsak tillhandahåller Codec infrastrukturens "omslag" (VMs, enklaver, nätverk) så att agentplaner på hög nivå kan köras på ett säkert sätt på verklig programvara och nätverk. Användningsfall Automatisering av plånbok: Codec kan bädda in plånböcker eller nycklar i en TEE-skyddad virtuell dator, vilket gör att en AI-agent kan interagera med blockkedjenätverk (handla på DeFi, hantera kryptotillgångar) utan att exponera hemliga nycklar. Denna arkitektur gör det möjligt för finansiella agenter i kedjan att utföra verkliga transaktioner på ett säkert sätt, något som skulle vara mycket farligt i en typisk agentuppsättning. Plattformens tagline listar uttryckligen stöd för "plånböcker" som en nyckelfunktion. En agent kan till exempel köra ett CLI för en Ethereum-plånbok i sin enklav, signera transaktioner och skicka dem, med försäkran om att om agenten beter sig illa är den begränsad till sin virtuella dator och nycklarna lämnar aldrig TEE. Webbläsar- och webbautomation: CodecFlow-agenter kan styra fullständiga webbläsare på sin virtuella dator. Conductor-exemplet visar en agent som startar Chrome och strömmar sin skärm till Twitch i realtid. Genom Playwright MCP kan agenten navigera på webbplatser, klicka på knappar och skrapa data precis som en mänsklig användare. Detta är idealiskt för uppgifter som webbskrapning bakom inloggningar, automatiserade webbtransaktioner eller testning av webbappar. Traditionella ramverk förlitar sig vanligtvis på API-anrop eller enkla huvudlösa webbläsarskript; Däremot kan CodecFlow köra en riktig webbläsare med ett synligt användargränssnitt, vilket gör det lättare att hantera komplexa webbapplikationer (t.ex. med tunga JavaScript- eller CAPTCHA-utmaningar) under AI-kontroll. Automatisering av GUI i den verkliga världen (äldre system): Eftersom varje agent har ett faktiskt skrivbordsoperativsystem kan den automatisera äldre GUI-applikationer eller fjärrskrivbordssessioner, som i princip fungerar som robotiserad processautomatisering (RPA) men drivs av AI. En agent kan till exempel öppna ett Excel-kalkylblad på sin virtuella Windows-dator eller gränssnitt med ett gammalt terminalprogram som inte har något API. Codec:s webbplats nämner uttryckligen att man möjliggör "äldre automatisering". Detta öppnar upp för att använda AI för att driva programvara som inte är tillgänglig via moderna API:er, en uppgift som skulle vara mycket hackig eller osäker utan en innesluten miljö. Den medföljande noVNC-integrationen föreslår att agenter kan observeras eller kontrolleras via VNC, vilket är användbart för att övervaka en AI som kör ett GUI. Simulering av SaaS-arbetsflöden: Företag har ofta komplexa processer som involverar flera SaaS-applikationer eller äldre system. En anställd kan till exempel ta data från Salesforce, kombinera den med data från ett internt ERP-system och sedan skicka en sammanfattning till en kund via e-post. Codec kan göra det möjligt för en AI-agent att utföra hela den här sekvensen genom att faktiskt logga in på dessa appar via en webbläsare eller klientprogramvara på den virtuella datorn, ungefär som en människa skulle göra. Detta är som RPA, men drivs av en LLM som kan fatta beslut och hantera variabilitet. Det är viktigt att autentiseringsuppgifter för dessa appar kan tillhandahållas till den virtuella datorn på ett säkert sätt (och till och med omges av en TEE), så att agenten kan använda dem utan att någonsin "se" autentiseringsuppgifter i klartext eller exponera dem externt. Detta kan påskynda automatiseringen av rutinmässiga backoffice-uppgifter samtidigt som IT-avdelningen får rätt att varje agent körs med minsta möjliga behörighet och fullständig granskningsbarhet (eftersom varje åtgärd på den virtuella datorn kan loggas eller registreras). Färdplan - Lansera en offentlig demo i slutet av månaden - Funktionsjämförelse med andra liknande plattformar (ingen web3-konkurrent) - Integrering av TAO - Stort spelpartnerskap När det gäller originalitet bygger Codec på en grund av befintlig teknik men integrerar dem på ett nytt sätt för användning av AI-agenter. Idén med isolerade körningsmiljöer är inte ny (containrar, virtuella datorer och TEE:er är standard inom molnbaserad databehandling), men att tillämpa dem på autonoma AI-agenter med ett sömlöst API-lager (MCP) är extremt nytt. Plattformen utnyttjar öppna standarder och verktyg där det är möjligt: den använder MCP-servrar som Microsofts Playwright för webbläsarkontroll istället för att uppfinna hjulet på nytt, och planerar att stödja AWS:s Firecracker micro-VMs för snabbare virtualisering. Det gafflade också befintliga lösningar som noVNC för strömmande skrivbord. Att demonstrera projektet står på grunden av beprövad teknik (Kubernetes, enklavhårdvara, bibliotek med öppen källkod) och fokuserar sin ursprungliga utveckling på limlogik och orkestrering (den "hemliga såsen" är hur allt fungerar tillsammans). Kombinationen av komponenter med öppen källkod och en kommande molntjänst (som antyds av omnämnandet av ett $CODEC tokenverktyg och offentlig produktåtkomst) innebär att Codec snart kommer att vara tillgängligt i flera former (både som en tjänst och självhostad). Team Moyai: 15+ års erfarenhet av utveckling, leder för närvarande AI-utveckling på Elixir Games. lil'km: 5+ år AI-utvecklare, arbetar för närvarande med HuggingFace på LeRobot-projektet. HuggingFace är ett stort robotföretag och Moyai arbetar som chef för ai på elixir games (uppbackad av Square Enix och Solanafdn. Jag har personligen videoringat hela teamet och gillar verkligen energin de ger. Min vän som satte dem på min radar träffade dem också alla på Token2049 och hade bara bra saker att säga. Avslutande tankar Det finns fortfarande mycket kvar att täcka, som jag sparar för framtida uppdateringar och inlägg i min Telegram-kanal. Jag har länge trott att molninfrastruktur är framtiden för operatörsagenter. Jag har alltid respekterat vad Nuit bygger, men Codec är det första projektet som har visat mig den fullstack-övertygelse jag letade efter. Teamet är helt klart ingenjörer på toppnivå. De har öppet sagt att marknadsföring inte är deras styrka, vilket troligen är anledningen till att detta har flugit under radarn. Jag kommer att arbeta nära dem för att hjälpa till att forma GTM-strategin som faktiskt återspeglar djupet i det de bygger. Med ett marknadsvärde på 4 miljoner dollar och denna nivå av infrastruktur känns det massivt underprissatt. Om de kan leverera en användbar produkt tror jag att det lätt kan markera början på nästa AI-infracykel. Som alltid finns det risker och även om jag har granskat teamet i smyg under de senaste veckorna är inget projekt någonsin helt mattsäkert. Prismål? Mycket högre.
11,86K