Populære emner
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Trissy
Et siste okseløp
OpenAI bekreftet nettopp min nordlige stjerneoppgave for AI i dag ved å frigi operatøragenten deres.
Ikke bare var dette min veiledende oppgave for $CODEC, men alle andre AI-investeringer jeg gjorde, inkludert de fra tidligere på året under AI-mani.
Det har vært mye diskusjon med Codec med hensyn til robotikk, mens den vertikalen vil ha sin egen fortelling veldig snart, er den underliggende grunnen til at jeg var så positiv til Codec fra dag 1 på grunn av hvordan arkitekturen driver operatøragenter.
Folk undervurderer fortsatt hvor mye markedsandel som står på spill ved å bygge programvare som kjører autonomt, og overgår menneskelige arbeidere uten behov for konstante spørsmål eller tilsyn.
Jeg har sett mange sammenligninger med $NUIT. For det første vil jeg si at jeg er en stor fan av det Nuit bygger og ønsker ingenting annet enn suksess. Hvis du skriver "nuit" i telegrammet mitt, vil du se at jeg tilbake i april sa at hvis jeg måtte holde en mynt i flere måneder, ville det ha vært Nuit på grunn av operatøroppgaven min.
Nuit var det mest lovende operatørprosjektet på papiret, men etter omfattende undersøkelser fant jeg ut at arkitekturen deres manglet dybden som trengs for å rettferdiggjøre en stor investering eller legge omdømmet mitt bak det.
Med dette i tankene var jeg allerede klar over de arkitektoniske hullene i eksisterende operatøragentteam og søkte aktivt etter et prosjekt som adresserte dem. Kort tid etter dukket Codec opp (takket være at @0xdetweiler insisterte på at jeg ser dypere inn i dem), og dette er forskjellen mellom de to:
$CODEC mot $NUIT
Codecs arkitektur er bygget over tre lag; Maskin, system og intelligens, som skiller infrastruktur, miljøgrensesnitt og AI-logikk. Hver operatøragent i Codec kjører i sin egen isolerte virtuelle maskin eller beholder, noe som gir nesten opprinnelig ytelse og feilisolering. Denne lagdelte designen betyr at komponenter kan skaleres eller utvikles uavhengig uten å ødelegge systemet.
Nuits arkitektur tar en annen vei ved å være mer monolitisk. Stabelen deres dreier seg om en spesialisert nettleseragent som kombinerer parsing, AI-resonnement og handling. Det betyr at de dypt analyserer nettsider til strukturerte data som AI kan konsumere og er avhengige av skybehandling for tunge AI-oppgaver.
Codecs tilnærming med å bygge inn en lett Vision-Language-Action (VLA)-modell i hver agent betyr at den kan kjøre helt lokalt. Noe som ikke krever konstant ping tilbake til skyen for instruksjoner, kutter ut ventetid og unngår avhengighet av oppetid og båndbredde.
Nuits agent behandler oppgaver ved først å konvertere nettsider til et semantisk format og deretter bruke en LLM-hjerne for å finne ut hva de skal gjøre, noe som forbedres over tid med forsterkende læring. Selv om denne flyten er effektiv for nettautomatisering, avhenger den av tung AI-behandling på skysiden og forhåndsdefinerte sidestrukturer. Codecs lokale enhetsintelligens betyr at beslutninger skjer nærmere dataene, noe som reduserer overhead og gjør systemet mer stabilt for uventede endringer (ingen skjøre skript eller DOM-antakelser).
Codecs operatører følger en kontinuerlig oppfatte-tenke-handle-sløyfe. Maskinlaget strømmer miljøet (f.eks. en live-app eller robotfeed) til intelligenslaget via systemlagets optimaliserte kanaler, noe som gir AI "øyne" på den nåværende tilstanden. Agentens VLA-modell tolker deretter bildene og instruksjonene sammen for å bestemme en handling, som systemlaget utfører gjennom tastatur-/musehendelser eller robotkontroll. Denne integrerte sløyfen betyr at den tilpasser seg live-arrangementer, selv om brukergrensesnittet skifter rundt, vil du ikke bryte flyten.
For å sette alt dette i en enklere analogi, tenk på Codecs operatører som en selvforsynt ansatt som tilpasser seg overraskelser på jobben. Nuits agent er som en ansatt som må ta en pause, beskrive situasjonen til en veileder over telefon og vente på instruksjoner.
Uten å gå for mye ned i et teknisk kaninhull, bør dette gi deg en idé på høyt nivå om hvorfor jeg valgte Codec som min primære innsats på operatører.
Ja, Nuit har støtte fra YC, et stablet team og S-nivå github. Selv om Codecs arkitektur er bygget med horisontal skalering i tankene, noe som betyr at du kan distribuere tusenvis av agenter parallelt med null delt minne eller utførelseskontekst mellom agenter. Codecs team er heller ikke dine gjennomsnittlige utviklere.
VLA-arkitekturen deres åpner en rekke brukstilfeller som ikke var mulig med tidligere agentmodeller på grunn av å se gjennom piksler, ikke skjermbilder.
Jeg kunne fortsette, men jeg sparer det til fremtidige innlegg.
15,48K
Saken er at hvis du virkelig ønsker å klare deg i dette rommet, vil alle rundt deg tro at det er noe galt med deg.
For å virkelig være 0,001 %, er livet utenfor skyttergravene nesten ikke-eksisterende.
Ingen jenter, ingen hobbyer, ingen sosiale utflukter, ingen netflix eller noe som tar deg bort fra grinden.
Det er en type tankegang som er ekstremt urelaterbar for selv profesjonelle idrettsutøvere fordi det ikke er noen grunn til at du ikke kan være online 24/7.
Vi sitter fast i vårt eget frihetsparadoks.
Alle vil ha den magiske muligheten til å klikke på knapper for penger, til det er på tide å si nei til 95 % av gledene.
Venner og familie vil stadig komme med hint som tyder på at du har en form for psykisk lidelse og aldri virkelig vil se visjonen.
Sjalu stiger når biter av suksess sniker seg gjennom, hvis du ser nøye nok på folk, avslører de alltid sine sanne intensjoner, selv om de ikke mente det.
De minste hintene vil avsløre dem, vanligvis fra spontane følelsesmessige reaksjoner i øyeblikket hvor du bare trenger å høre noen få ord glippe, mesteparten av tiden er det alt som trengs.
Etter hvert som du lykkes bedre, lær å være stille. Det er ikke nødvendig å nevne fremgangen din, så flott som det ville være å dele med alle og nyte fruktene av arbeidet ditt, vil det bare tiltrekke seg grådighet fra andre.
De fleste mislykkes med dette ettersom de gjør det å være "kryptofyren" eller "investoren" til hele sin persona. Selv om du er online 16 timer i døgnet, må du fortsatt ha interesser og ambisjoner utenfor denne bransjen.
Venner bør ønske å henge med deg for kvaliteten på tilstedeværelsen din og humørforskjellen du gjør mens du er der, ikke hvor mange tall du har laget på en skjerm.
Å leve et privat, bortgjemt liv med en liten krets av kvalitetsindivider er det beste livshacket for trygghet.
Hvis din tilstedeværelse ikke får folk til å føle noe uten å snakke om penger, har du allerede tapt.
5,66K
Hva er $CODEC
Robotikk, operatører, spill?
Alt det ovennevnte og mer.
Codecs vision-language-action (VLA) er en rammeagnostisk modell, som gir mulighet for dusinvis av brukstilfeller på grunn av dens unike evne til å visualisere feil sammenlignet med LLM-er.
I løpet av de siste 12 månedene har vi sett at LLM-er først og fremst fungerer som looping-mekanismer, drevet av forhåndsdefinerte data og responsmønstre.
Fordi de er bygget på tale og tekst, har LLM-er en begrenset evne til å utvikle seg utover vinduet med språklig kontekst de er trent på. De kan ikke tolke sanseinntrykk, som ansiktsuttrykk eller emosjonelle signaler i sanntid, da resonnementet deres er bundet til språk, ikke persepsjon.
De fleste agenter i dag kombinerer transformatorbaserte LLM-er med visuelle kodere. De "ser" grensesnittet gjennom skjermbilder, tolker hva som er på skjermen og genererer sekvenser av handlinger, klikk, tastetrykk, rulling for å følge instruksjoner og fullføre oppgaver.
Dette er grunnen til at AI ikke har erstattet store kategorier av jobber ennå: LLM-er ser skjermbilder, ikke piksler. De forstår ikke den dynamiske visuelle semantikken i omgivelsene, bare hva som kan leses gjennom statiske rammer.
Deres typiske arbeidsflyt er repeterende: ta et skjermbilde, resonnere om neste handling, utfør den, ta deretter et nytt bilde og gjenta. Denne oppfatte-tenke-sløyfen fortsetter til oppgaven er fullført eller agenten mislykkes.
For å virkelig generalisere må AI oppfatte omgivelsene, resonnere om tilstanden og handle riktig for å oppnå mål, ikke bare tolke øyeblikksbilder.
Vi har allerede makroer, RPA-roboter og automatiseringsskript, men de er svake og ustabile. En liten pikselforskyvning eller layoutendring bryter flyten og krever manuell oppdatering. De kan ikke tilpasse seg når noe endres i arbeidsflyten. Det er flaskehalsen.
Visjon-Språk-Handling (VLA)
Codecs VLA-agenter kjører på en intuitiv, men kraftig sløyfe: oppfatte, tenke, handle. I stedet for bare å spytte ut tekst som de fleste LLM-er, ser disse agentene miljøet, bestemmer hva de skal gjøre og deretter utfører. Alt er pakket i ett enhetlig datasamlebånd, som du kan visualisere i tre kjernelag:
Visjon
Agenten oppfatter først omgivelsene gjennom synet. For en stasjonær operatøragent betyr dette å ta et skjermbilde eller visuelle inndata av gjeldende tilstand (f.eks. et appvindu eller en tekstboks). VLA-modellens visjonskomponent tolker disse inndataene, leser tekst på skjermen og gjenkjenner grensesnittelementer eller objekter. Aka øynene til agenten.
Språk
Så kommer tankene. Gitt den visuelle konteksten (og eventuelle instruksjoner eller mål), analyserer modellen hvilken handling som kreves. I hovedsak "tenker" AI på riktig respons omtrent som en person ville gjort. VLA-arkitekturen slår sammen visjon og språk internt, slik at agenten for eksempel kan forstå at en popup-dialogboks stiller et ja/nei-spørsmål. Den vil da bestemme riktig handling (f.eks. klikk "OK") basert på målet eller ledeteksten. Fungerer som agentens hjerne, og kartlegger opplevde innspill til en handling.
Handling
Til slutt handler agenten ved å sende ut en kontrollkommando til miljøet. I stedet for tekst genererer VLA-modellen en handling (for eksempel et museklikk, tastetrykk eller API-kall) som samhandler direkte med systemet. I dialogeksemplet vil agenten utføre klikket på "OK" -knappen. Dette lukker sløyfen: etter handling kan agenten visuelt sjekke resultatet og fortsette oppfatte-tenke-handle-syklusen. Handlinger er nøkkelskilletegnet som gjør dem fra chattebokser til faktiske operatører.
Bruksområder
Som jeg nevnte, på grunn av arkitekturen, er Codec narrativ agnostisk. Akkurat som LLM ikke er begrenset av hvilke tekstutdata de kan produsere, er ikke VLA-er begrenset av hvilke oppgaver de kan fullføre.
Robotics
I stedet for å stole på gamle skript eller ufullkommen automatisering, tar VLA-agenter inn visuelle input (kamerafeed eller sensorer), sender det gjennom en språkmodell for planlegging, og sender deretter ut faktiske kontrollkommandoer for å bevege seg eller samhandle med verden.
I utgangspunktet ser roboten hva som er foran den, behandler instruksjoner som "flytt Pepsi-boksen ved siden av appelsinen", finner ut hvor alt er, hvordan den skal bevege seg uten å velte noe, og gjør det uten behov for hardkoding.
Dette er samme systemklasse som Googles RT-2 eller PaLM-E. Store modeller som slår sammen visjon og språk for å skape handlinger i den virkelige verden. CogActs VLA-arbeid er et godt eksempel, roboten skanner et rotete bord, får en naturlig melding og kjører en full sløyfe: objekt-ID, baneplanlegging, bevegelsesutførelse.
Operatører
I skrivebords- og nettmiljøet fungerer VLA-agenter i utgangspunktet som digitale arbeidere. De "ser" skjermen gjennom et skjermbilde eller live-feed, kjører det gjennom et resonnementslag bygget på en språkmodell for å forstå både brukergrensesnittet og oppgavemeldingen, og utfører deretter handlingene med ekte mus- og tastaturkontroll, som et menneske ville gjort.
Denne fulle loopen, oppfatte, tenke, handle går kontinuerlig. Så agenten reagerer ikke bare én gang, den navigerer aktivt i grensesnittet og håndterer flertrinnsflyter uten å trenge noen hardkodede skript. Arkitekturen er en blanding av OCR-stilvisjon for å lese tekst/knapper/ikoner, semantisk resonnement for å bestemme hva som skal gjøres, og et kontrolllag som kan klikke, rulle, skrive osv.
Der dette blir virkelig interessant er i feilhåndtering. Disse agentene kan reflektere etter handlinger og planlegge på nytt hvis noe ikke går som forventet. I motsetning til RPA-skript som brytes hvis et brukergrensesnitt endres litt, for eksempel en knapp som skifter posisjon eller en etikett som får nytt navn, kan en VLA-agent tilpasse seg det nye oppsettet ved hjelp av visuelle signaler og språkforståelse. Gjør den langt mer motstandsdyktig for automatisering i den virkelige verden der grensesnitt stadig endres.
Noe jeg personlig har slitt med når jeg har kodet mine egne forskningsroboter gjennom verktøy som dramatiker.
Gaming
Gaming er et av de tydeligste brukstilfellene der VLA-agenter kan skinne, tenke på dem mindre som roboter og mer som oppslukende AI-spillere. Hele flyten er den samme, agenten ser spillskjermen (rammer, menyer, tekstmeldinger), begrunner om hva den skal gjøre, og spiller deretter ved hjelp av mus, tastatur eller kontrollerinnganger.
Det er ikke fokusert på brute force, dette er AI som lærer å spille som et menneske ville gjort. Persepsjon + tenkning + kontroll, alt bundet sammen. DeepMinds SIMA-prosjekt har låst opp dette ved å kombinere en visjonsspråkmodell med et prediktivt lag og sluppet det inn i spill som No Man's Sky og Minecraft. Fra bare å se på skjermen og følge instruksjonene, kunne agenten fullføre abstrakte oppgaver som "bygge et bål" ved å lenke sammen de riktige trinnene, samle ved, finne fyrstikker og bruke inventar. Og det var ikke begrenset til bare én kamp heller. Den overførte denne kunnskapen mellom ulike miljøer.
VLA-spillagenter er ikke låst til ett regelsett. Den samme agenten kan tilpasse seg helt forskjellige mekanikker, bare fra visjon og språkjording. Og fordi den er bygget på LLM-infrastruktur, kan den forklare hva den gjør, følge instruksjoner på naturlig språk midt i spillet eller samarbeide med spillere i sanntid.
Vi er ikke langt unna å ha AI-lagkamerater som tilpasser seg spillestilen og personaliseringene dine, alt takket være Codec.

9,17K
ICMs suksess er ikke avhengig av Launchcoin eller noen enkelt plattform.
Det er en regimeendring fra hvordan vi ser på forsyningsprosjekter på kjeden.
Vi gikk fra lanseringer på flere milliarder dollar til pumpfun på grunn av vanvittige uoverensstemmelser i pris og fundamentale forhold.
Nå skifter vi fra vaporware til prosjekter med reelle brukere, volum og inntekter.
Flertallet vil gi opp akkurat når vi runder hjørnet av ekte adopsjon.
6,52K
Et misforhold i pris og fundamentale forhold.
$KNET (8 millioner dollar) mot $ALCH (120 millioner dollar)
@Kingnet_AI
Håndterer alt fra 2D/3D-modellering til fulle karakterrigger, animasjoner og til og med kodegenerering, rett fra naturlige språkmeldinger. Brukergrensesnitt uten kode betyr at hvem som helst kan gå fra idé til spillbar Web3-spilldemo uten å berøre en kodelinje. Fremskynder bygginger, kutter kostnader og senker barrieren massivt.
Den er posisjonert mot Web3-innfødte spillutviklere, indiebyggere og små studioer. Stor vekt på aktivagenerering + ende-til-ende prototyping. I utgangspunktet gjør spillutvikling til en visuell AI-arbeidsflyt, rettet mot å få ut mer innhold raskere, selv om du ikke er teknisk.
KNET driver alt, betalinger, AI-spørringer og til slutt markedsplassen for genererte eiendeler. Har også styringskroker. Knyttet til KingNet (stort offentlig spillselskap), og allerede koblet til Solana, BNB, TON. Å se tidlig trekkraft + hackathon-seire.
Kingnet AI støttes av Kingnet Network Co. Ltd, en børsnotert kinesisk spillgigant grunnlagt i 2008. Med en merittliste med hittitler som Happy Tower, Shushan Legend, MU Miracle og World of Warships Blitz, er selskapet en av de mest anerkjente inkubatorene innen mobilspill. Kingnet AI er bygget av SmileCobra Studio (Singapore) i eksklusivt samarbeid med Kingnets Hong Kong-arm. Morselskapet er verdsatt til over 5 milliarder dollar med 1 milliard dollar på balansen.
@alchemistAIapp
En bredere kodefri plattform som konverterer brukermeldinger til fullt funksjonelle apper eller spill.
Den bruker en AI-motor med flere agenter (flere spesialiserte modeller) for å analysere brukermeldinger, generere kode, lage bilder og sette sammen fullstendige applikasjoner i sanntid. Retter seg mot en bred brukerbase, fra hobbyister til Web3-byggere, som raskt ønsker å prototype verktøy, spill eller nettsteder.
UX er veldig strømlinjeformet, for eksempel går du inn i "et slangespill med brun trebakgrunn", og Alchemists Sacred Laboratory-grensesnitt organiserer AI-agenter for å produsere frontend-kode, spilllogikk og til og med tilpasset grafikk på
ALCH brukes på Arcane Forge-markedsplassen og for å få tilgang til Alchemists AI-tjenester. Brukere kan tjene ALCH ved å selge nyttige applikasjoner eller spill, markedsplassen har tips- og oppdagelsesfunksjoner for å belønne populære apper.
Alchemist ble grunnlagt i 2024 av et team i Vietnam, ledes av Thien Phung Van (grunnlegger/finansdirektør), Trong Pham Van (medgründer) og Duc Loc "Louis" Nguyen (CTO). Med bakgrunn innen programvare og entreprenørskap (Thien var tidligere administrerende direktør/finansdirektør i Vistia), lanserte det lille teamet Alchemist som en ufinansiert oppstart.
TLDR; Kingnet AI er spesialisert, med fokus på å automatisere ende-til-ende-spilloppretting for Web3, støttet av velprøvd spillinfrastruktur. Alchemist AI er bredere i omfang, og tilbyr et raskt LLM-grensesnitt for å bygge unike verktøy og spill med detaljhandelsappell. Kingnet er domene dypt i spill, mens Alchemist er domene over flere brukstilfeller.
Basert på dette er det ganske klart at Kingnet er sterkt undervurdert i sammenligning. Kingnet er mye tidligere i produktets livssyklus og har ikke fullt ut utfylt UX og grensesnitt, selv om kvaliteten på team, erfaring og støtte oppveier Alchemists plattform betydelig mens den er 15 ganger lavere i mcap.
27,64K
Folk fortsetter å gratulere meg med $CODEC, hvorfor?
Så langt har vi ikke engang sett:
- Token-verktøy
-Insentiver
- Veikart
-Demoer
- Ny nettside
-Markedsplass
- Fremtidige partnerskap
- Bruksområder
+ mer
Alt vi har sett er noen få partnerskap og utgivelsen av ressursaggregatoren deres (Fabric).
Jeg skrev ikke flere tråder, flere telegraminnlegg, snakket med teamet nesten daglig, ga råd om markedsføring, merkevarebygging, posisjonering for å feire en 6 mil mcap.
En chatgpt-innpakning av en anime-jente med rosa hår var nok til en 6 mil mcap tilbake i AI szn.
Prosjekter ble sendt til 9 figurer over natten for å vinne et hackathon eller bli satt i søkelyset fra store KOL-er/forskere.
Alle har glemt hva som skjer når lysene tennes og folk tror igjen.
Grunnen til at jeg har byttet så bullish den siste uken for onchain er troen på at det er på alle tiders laveste nivåer. Den siste måneden har vært noen av de største fremskrittene vi har gjort i denne bransjen sammen med positivt makrobakteppe.
Husker du følelsen av penger som falt ned fra himmelen? Det tar kanskje ikke så lang tid før vi får oppleve det igjen.

9,32K
Av og til dukker det opp et unikt prosjekt som får kjøre sitt eget løp.
AI har for det meste ikke vært noe annet enn terminaler i chatgpt-stil og kreativ bilde-/videogenerasjon.
Vi har hørt i flere måneder at vi er på nippet til at alle mister jobben på grunn av AI.
Ja, det har gjort alle 10 ganger i produktivitet, men vi har ikke erstattet folk i arbeidsstyrken fullt ut. Hvorfor?
De dominerende AI-assistentene i dag, fra chatbots i en nettleser til eksperimentelle «agent»-rammeverk, er sterke i samtale, men strukturelt begrenset i utførelse.
De er vanligvis avhengige av en nettleser eller et enkelt skriptmiljø for å utføre oppgaver. Selv om dette fungerer for å hente informasjon eller grunnleggende nettautomatisering, sliter disse agentene med komplekse flertrinnsprosesser og bryter ofte når ting avviker fra deres begrensede bane.
Nåværende AI-agenter mislykkes fordi de mangler vedvarende minne og feiltoleranse, når de står overfor uventede feil, kan de ikke gjenopprette eller tilpasse seg, og stopper ofte eller går i sløyfe på ubestemt tid.
De fleste opererer i begrensede nettleserbaserte miljøer og har ikke tilgang til hele spekteret av bedriftsprogramvare, noe som gjør det rutinemessige arbeidet utenfor deres rekkevidde.
Derfor har vi ikke sett AI erstatte hverdagslige bedriftsroller som kundestøtte og administrasjon. Ikke på grunn av mangel på kapasitet i selve AI-modellene, men fordi rammeverkene rundt dem ikke er pålitelige nok for kritiske arbeidsflyter.
Så hva trengs?
En ny systemarkitektur. En som tar for seg feiltoleranse, minne, tilgang, isolasjon og effektivitet i et enkelt rammeverk.
I stedet for å stoppe opp ved første uventede input, bør de fange opp feil, tilpasse seg og prøve forskjellige metoder på nytt, omtrent som mennesker gjør når ting går galt.
For å skalere AI til reelle arbeidsflyter, trenger den vedvarende minne og oppgavesporing for å fungere pålitelig over lang varighet.
De krever også full tilgang til økosystemet, utover nettleserverktøy for å bruke den samme programvaren som mennesker gjør, inkludert skrivebordsapplikasjoner.
Uten sikker isolasjon kan ikke agenter operere trygt i dedikerte miljøer, noe som gjør distribusjon i stor skala risikabelt på grunn av potensiell interferens på tvers av systemer.
Hvis de vil at kjøretiden skal være konsistent og effektiv, trenger de også smart ressursstyring som behandler datamaskiner som en levende fungerende kropp.
For de som koblet sammen punktene, bringer @Codecopenflow nylige Fabric-utgivelsen alt dette sammen, og gir AI-agenter pålitelige, fullt dedikerte operativsystemer (OS) som kombinerer den kognitive kraften til avanserte modeller med infrastrukturen de trenger for å fungere som pålitelige digitale arbeidere.
Stoff i seg selv kan være en helt uavhengig lisensiert programvare. Den forvandler agenter fra nettleserbundne skript til autonome operatører med full tilgang på OS-nivå.
På samme måte som en DEX-aggregator ruter den mest effektive prisen til deg, er Fabric rutinglaget som betjener Codecs dype nivåarkitektur.
Du viser CPU, GPU, minnebehov og eventuelle regionpreferanser. Dette betyr å finne de mest kostnadseffektive serverne som AWS/google cloud eller GPU-ressurser fra Render/IO-nettet.
Codec gir rene SDK-er og en API for full kontroll over disse AI-operatørene. Et selskap kan integrere Codec-agenter i sin eksisterende programvarepipeline (for eksempel spinne opp en agent for å håndtere en brukerforespørsel, og deretter spinne den ned) uten å måtte finne opp infrastrukturen på nytt.
I kundestøtte kan agenter administrere hele arbeidsflyter, spørringsløsning, CRM-oppdateringer, refusjoner, redusere lønnskostnadene med opptil 90 % samtidig som de forbedrer konsistens og oppetid.
For forretningsdrift automatiserer Codec repeterende administrative prosesser som fakturahåndtering, HR-oppdateringer og forsikringskrav, spesielt i sektorer med høyt volum som finans og helsevesen.
Ved å fokusere på et fullstendig isolert miljø med flere apper for hver AI-operatør, er ikke AI begrenset av de kritiske problemene med pålitelighet og integrasjon som tidligere rammeverk ikke kunne løse.
I hovedsak gjør cloud computing-infrastruktur til et fleksibelt samlebånd for AI-arbeidere. Hver "arbeider" får de riktige verktøyene (apper, OS, datatilgang) og en sikkerhetssele (isolasjon + feilhåndtering) for å gjøre jobben sin.
Hver forbedring i AI-modeller (GPT-5 osv.) øker bare verdien av Codecs plattform, fordi bedre "hjerner" nå kan kobles til denne sterke "kroppen" for å utføre enda mer komplekse jobber.
Codec er modellagnostisk (fungerer med alle AI-modeller), så den kan dra nytte av den generelle AI-fremgangen uten å være bundet til en enkelt leverandørs skjebne.
Vi er ved et vendepunkt som ligner på de tidlige dagene med cloud computing. Akkurat som selskapene som leverte plattformene for skyen (virtualisering, AWS sin infrastruktur osv.) ble uunnværlige for bedrifts-IT, vil et selskap som tilbyr plattformen for AI-agenter å operere fange et enormt marked.
OpenAI har allerede gitt ut en fullstendig agentisk skykodingsterminal kalt Codex. Codex vil være en mini lokal versjon av Codex du kan kjøre på datamaskinen din, men enda viktigere er at Codex sin primære modell vil være i skyen med sin egen datamaskin.
Medgründeren av OpenAI mener at de mest suksessrike selskapene i fremtiden vil være disse to typene arkitektur slått sammen. Høres kjent ut.
Hva blir det neste?
I stedet for å fortelle deg hva som er det neste, er det kanskje bedre at jeg peker på det vi ikke har sett ennå:
- Ingen bekreftet token-verktøy
- Ingen insentiver
- Ikke noe kjerneveikart
- Ingen demoer
- Ingen markedsplass
- Minimale partnerskap
Med tanke på hvor mye som er i pipelinen sammen med nye nettsteder, oppdaterte dokumenter, dypere likviditetspooler, fellesskapskampanjer/markedsføring og robotikk. Codec har ikke avslørt mange kort ennå.
Klart det kan være flere ferdige nettleserbaserte produkter på markedet for tiden, men hvor lenge til de er foreldet?
Dette er en investering i retning av AI og den primære arkitekturen som vil erstatte menneskelige arbeidsstyrker.
Kodek kodet.


Trissy13. mai 2025
Virtuelle miljøer for operatøragenter: $CODEC
Kjerneoppgaven min rundt eksplosjonen av AI har alltid sentrert seg om fremveksten av operatøragenter.
Men for at disse agentene skal lykkes, krever de dyp systemtilgang, noe som effektivt gir dem kontroll over din personlige datamaskin og sensitive data, noe som introduserer alvorlige sikkerhetsproblemer.
Vi har allerede sett hvordan selskaper som OpenAI og andre teknologigiganter håndterer brukerdata. Mens de fleste ikke bryr seg, gjør de personene som kan dra mest nytte av operatøragenter, de øverste 1 % absolutt.
Personlig er det null sjanse for at jeg gir et selskap som OpenAI full tilgang til maskinen min, selv om det betyr en 10× økning i produktiviteten.
Så hvorfor Codec?
Codecs arkitektur er sentrert om å lansere isolerte, on-demand "skystasjoner" for AI-agenter. Kjernen er en Kubernetes-basert orkestreringstjeneste (kodenavn Captain) som klargjør lette virtuelle maskiner (VM-er) i Kubernetes-pods.
Hver agent får sitt eget isolerte miljø på OS-nivå (en fullstendig Linux OS-forekomst) der den kan kjøre applikasjoner, nettlesere eller hvilken som helst kode, fullstendig sandkasse fra andre agenter og verten. Kubernetes håndterer planlegging, automatisk skalering og selvreparasjon av disse agentpodene, noe som sikrer pålitelighet og muligheten til å spinne opp/ned mange agentforekomster etter hvert som belastningen krever
Trusted Execution Environments (TEE-er) brukes til å sikre disse virtuelle maskinene, noe som betyr at agentens maskin kan isoleres kryptografisk, minnet og kjøringen kan beskyttes mot vertsoperativsystemet eller skyleverandøren. Dette er avgjørende for sensitive oppgaver: for eksempel kan en virtuell maskin som kjører i en enklave holde API-nøkler eller kryptolommebokhemmeligheter sikkert.
Når en AI-agent (en LLM-basert «hjerne») trenger å utføre handlinger, sender den API-forespørsler til Captain-tjenesten, som deretter starter eller administrerer agentens VM-pod. Arbeidsflyten: agenten ber om en maskin, Captain (gjennom Kubernetes) tildeler en pod og legger ved et vedvarende volum (for VM-disken). Agenten kan deretter koble til den virtuelle maskinen (via en sikker kanal eller strømmegrensesnitt) for å utstede kommandoer. Captain eksponerer endepunkter for agenten for å utføre skallkommandoer, laste opp/laste ned filer, hente logger og til og med ta et øyeblikksbilde av den virtuelle maskinen for senere gjenoppretting.
Denne utformingen gir agenten et komplett operativsystem å jobbe i, men med kontrollert, revidert tilgang. Fordi den er bygget på Kubernetes, kan Codec automatisk skalere horisontalt, hvis 100 agenter trenger miljøer, kan den planlegge 100 pods på tvers av klyngen, og håndtere feil ved å starte pods på nytt.
Agentens virtuelle maskin kan utstyres med forskjellige MCP-servere (som en "USB-port" for AI). For eksempel er Codecs Conductor-modul en beholder som kjører en Chrome-nettleser sammen med en Microsoft Playwright MCP-server for nettleserkontroll. Dette lar en AI-agent åpne nettsider, klikke på lenker, fylle ut skjemaer og skrape innhold via standard MCP-anrop, som om det var et menneske som kontrollerer nettleseren.
Andre MCP-integrasjoner kan inkludere et filsystem/terminal MCP (for å la en agent kjøre CLI-kommandoer sikkert) eller applikasjonsspesifikke MCP-er (for sky-APIer, databaser, etc.). I hovedsak gir Codec infrastrukturens "wrappers" (VM-er, enklaver, nettverk) slik at agentplaner på høyt nivå trygt kan kjøres på ekte programvare og nettverk.
Bruksområder
Automatisering av lommebok:
Codec kan bygge inn lommebøker eller nøkler i en TEE-beskyttet VM, slik at en AI-agent kan samhandle med blokkjedenettverk (handle på DeFi, administrere kryptoaktiva) uten å avsløre hemmelige nøkler.
Denne arkitekturen gjør det mulig for finansagenter på kjeden som utfører reelle transaksjoner på en sikker måte, noe som ville være svært farlig i et typisk agentoppsett. Plattformens slagord viser eksplisitt støtte for "lommebøker" som en nøkkelfunksjon.
En agent kan for eksempel kjøre en CLI for en Ethereum-lommebok inne i enklaven, signere transaksjoner og sende dem, med forsikring om at hvis agenten oppfører seg dårlig, er den begrenset til VM-en og nøklene forlater aldri TEE.
Nettleser og nettautomatisering:
CodecFlow-agenter kan kontrollere fullstendige nettlesere i den virtuelle maskinen. Dirigent-eksemplet viser en agent som starter Chrome og strømmer skjermen til Twitch i sanntid. Gjennom Playwright MCP kan agenten navigere på nettsteder, klikke på knapper og skrape data akkurat som en menneskelig bruker. Dette er ideelt for oppgaver som nettskraping bak pålogginger, automatiserte netttransaksjoner eller testing av nettapper.
Tradisjonelle rammeverk er vanligvis avhengige av API-kall eller enkle hodeløse nettleserskript; derimot kan CodecFlow kjøre en ekte nettleser med et synlig brukergrensesnitt, noe som gjør det enklere å håndtere komplekse webapplikasjoner (f.eks. med tunge JavaScript- eller CAPTCHA-utfordringer) under AI-kontroll.
GUI-automatisering i den virkelige verden (eldre systemer):
Fordi hver agent har et faktisk skrivebordsoperativsystem, kan den automatisere eldre GUI-applikasjoner eller eksterne skrivebordsøkter, som i hovedsak fungerer som robotprosessautomatisering (RPA), men drevet av AI. En agent kan for eksempel åpne et Excel-regneark i sin virtuelle Windows-maskin, eller grensesnitt med et gammelt terminalprogram som ikke har noen API.
Codecs nettsted nevner å aktivere "eldre automatisering" eksplisitt. Dette åpner for bruk av AI for å betjene programvare som ikke er tilgjengelig via moderne APIer, en oppgave som ville vært veldig hacky eller usikker uten et innesluttet miljø. Den inkluderte noVNC-integrasjonen antyder at agenter kan observeres eller kontrolleres via VNC, noe som er nyttig for å overvåke en AI som driver et GUI.
Simulering av SaaS-arbeidsflyter:
Bedrifter har ofte komplekse prosesser som involverer flere SaaS-applikasjoner eller eldre systemer. for eksempel kan en ansatt ta data fra Salesforce, kombinere dem med data fra en intern ERP, og deretter sende et sammendrag på e-post til en klient. Codec kan gjøre det mulig for en AI-agent å utføre hele denne sekvensen ved å faktisk logge på disse appene via en nettleser eller klientprogramvare i VM-en, omtrent som et menneske ville gjort. Dette er som RPA, men drevet av en LLM som kan ta beslutninger og håndtere variasjon.
Det er viktig at legitimasjonen til disse appene kan gis til den virtuelle maskinen på en sikker måte (og til og med omsluttet av en TEE), slik at agenten kan bruke dem uten å «se» legitimasjon i ren tekst eller eksponere dem eksternt. Dette kan akselerere automatisering av rutinemessige backoffice-oppgaver samtidig som det tilfredsstiller IT med at hver agent kjører med minst mulig privilegium og full revisjonsevne (siden hver handling i VM kan logges eller registreres).
Veikart
- Lanser offentlig demo i slutten av måneden
- Funksjonssammenligning med andre lignende plattformer (ingen web3-konkurrent)
- TAO-integrasjon
- Stort spillpartnerskap
Når det gjelder originalitet, er Codec bygget på et fundament av eksisterende teknologier, men integrerer dem på en ny måte for AI-agentbruk. Ideen om isolerte utførelsesmiljøer er ikke ny (beholdere, virtuelle maskiner og TEE-er er standard i cloud computing), men å bruke dem på autonome AI-agenter med et sømløst API-lag (MCP) er ekstremt nytt.
Plattformen utnytter åpne standarder og verktøy der det er mulig: den bruker MCP-servere som Microsofts Playwright for nettleserkontroll i stedet for å finne opp hjulet på nytt, og planlegger å støtte AWS sine Firecracker mikro-VM-er for raskere virtualisering. Den forgrenet også eksisterende løsninger som noVNC for streaming av stasjonære datamaskiner. Å demonstrere prosjektet står på grunnlaget for velprøvd teknologi (Kubernetes, enklavemaskinvare, åpen kildekode-biblioteker), og fokuserer den opprinnelige utviklingen på limlogikk og orkestrering (den "hemmelige sausen" er hvordan det hele fungerer sammen).
Kombinasjonen av åpen kildekode-komponenter og en kommende skytjeneste (antydet av omtale av et $CODEC token-verktøy og offentlig produkttilgang) betyr at Codec snart vil være tilgjengelig i flere former (både som en tjeneste og selvdriftet).
Lag
Moyai: 15+ års utviklererfaring, leder for tiden AI-utvikling hos Elixir Games.
lil'km: 5+ år AI-utvikler, jobber for tiden med HuggingFace på LeRobot-prosjektet.
HuggingFace er et stort robotikkselskap og Moyai jobber som leder for ai hos elixir games (støttet av square enix og solanafdn.
Jeg har personlig videoringt hele teamet og liker virkelig energien de bringer med seg. Vennen min som satte dem på radaren min møtte dem også alle på Token2049 og hadde bare gode ting å si.
Avsluttende tanker
Det er fortsatt mye igjen å dekke, som jeg vil spare til fremtidige oppdateringer og innlegg i Telegram-kanalen min.
Jeg har lenge trodd at skyinfrastruktur er fremtiden for operatøragenter. Jeg har alltid respektert det Nuit bygger, men Codec er det første prosjektet som har vist meg den fullstack-overbevisningen jeg lette etter.
Teamet er helt klart ingeniører på toppnivå. De har åpent sagt at markedsføring ikke er deres styrke, og det er sannsynligvis grunnen til at dette har fløyet under radaren. Jeg kommer til å jobbe tett med dem for å hjelpe til med å forme GTM-strategien som faktisk gjenspeiler dybden i det de bygger.
Med en markedsverdi på 4 millioner dollar og dette nivået av infrastruktur, føles den massivt underpriset. Hvis de kan levere et brukbart produkt, tror jeg det lett kan markere begynnelsen på neste AI-infrastruktursyklus.
Som alltid er det risiko, og selv om jeg har undersøkt teamet i sniking de siste ukene, er ingen prosjekter noen gang helt teppesikre.
Prismål? Mye høyere.

11,84K
Topp
Rangering
Favoritter
Trendende onchain
Trendende på X
Nylig toppfinansiering
Mest lagt merke til