Trendande ämnen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Louround 🥂
Medgrundare av @a1research__ 🀄️ & @steak_studio 🥩
Fick precis reda på att jag har 9 inbjuda koder tillgängliga för @anoma är testnät 👀
Kommentera och RT det här inlägget, jag väljer 9 personer på 24 timmar
🥂


Louround 🥂16 juli 16:00
Hatten av för @anoma testnät!
Det har en supersmidig och rolig upplevelse med sidouppdrag och dagliga uppgifter.
En ny UI- och UX-värld håller på att växa fram, och den är avsiktsbaserad ⏳
26,7K
Louround 🥂 delade inlägget
OpenAI meddelade just att dess Operator Agent nu kan styra en hel dator för att utföra en komplex uppsättning uppgifter med hjälp av VLA-modeller parade med LLM-modeller
Vision
Språk
Handling
Om det bara fanns ett kryptoprojekt som redan kunde göra detta...
Studera @codecopenflow
Förutom att styra stationära datorer kan Codec styra robot- och speloperatörer
Skapa en virtuell sandlådemiljö för att träna operatören innan den släpps i produktion i den verkliga världen
AI x Robotics och automatisering av spel/stationära datorer/robotar kommer att bli nästa stora steg för AI-utvecklingen och det är mitt mål att vara tidigt ute
Kodad kodad

6,38K
Louround 🥂 delade inlägget
OpenAI bekräftade precis min Northern Star tes för AI idag genom att släppa sin operatörsagent.
Detta var inte bara min vägledande tes för $CODEC, utan alla andra AI-investeringar jag gjorde, inklusive de från tidigare i år under AI-manin.
Det har varit en hel del diskussioner med Codec när det gäller robotik, även om den vertikalen kommer att ha sin egen berättelse mycket snart, är den underliggande anledningen till att jag var så hausse på Codec från dag 1 på grund av hur dess arkitektur driver operatörsagenter.
Människor underskattar fortfarande hur mycket marknadsandelar som står på spel genom att bygga programvara som körs autonomt och överträffar mänskliga arbetare utan behov av ständiga uppmaningar eller tillsyn.
Jag har sett många jämförelser med $NUIT. Först och främst vill jag säga att jag är ett stort av vad Nuit bygger och önskar inget annat än deras framgång. Om du skriver "nuit" i mitt telegram kommer du att se att jag redan i april sa att om jag var tvungen att hålla ett mynt i flera månader skulle det ha varit Nuit på grund av min operatörstes.
Nuit var det mest lovande operatörsprojektet på pappret, men efter omfattande efterforskningar fann jag att deras arkitektur saknade det djup som behövdes för att motivera en stor investering eller sätta mitt rykte bakom den.
Med detta i åtanke var jag redan medveten om de arkitektoniska luckorna i de befintliga operatörsagentteamen och letade aktivt efter ett projekt som löste dem. Kort därefter dök Codec upp (tack vare att @0xdetweiler insisterade på att jag skulle titta djupare in i dem) och det här är skillnaden mellan de två:
$CODEC jämfört med $NUIT
Codecs arkitektur är uppbyggd i tre lager; Maskin, system och intelligens, som separerar infrastruktur, miljögränssnitt och AI-logik. Varje operatörsagent i Codec körs i en egen isolerad virtuell dator eller container, vilket möjliggör nästan inbyggd prestanda och felisolering. Den här skiktade designen innebär att komponenter kan skalas eller utvecklas oberoende av varandra utan att systemet bryts.
Nuits arkitektur tar en annan väg genom att vara mer monolitisk. Deras stack kretsar kring en specialiserad webbläsaragent som kombinerar parsning, AI-resonemang och åtgärd. Det innebär att de analyserar webbsidor på djupet till strukturerad data som AI kan konsumera och förlitar sig på molnbearbetning för tunga AI-uppgifter.
Codecs metod att bädda in en enkel VLA-modell (Vision-Language-Action) i varje agent innebär att den kan köras helt lokalt. Vilket inte kräver att du ständigt pingar tillbaka till molnet för instruktioner, vilket minskar latensen och undviker beroende av drifttid och bandbredd.
Nuits agent bearbetar uppgifter genom att först konvertera webbsidor till ett semantiskt format och sedan använda en LLM-hjärna för att ta reda på vad de ska göra, vilket förbättras med tiden med förstärkningsinlärning. Även om det här flödet är effektivt för webbautomatisering är det beroende av tung AI-bearbetning på molnsidan och fördefinierade sidstrukturer. Codecs lokala enhetsintelligens innebär att beslut fattas närmare data, vilket minskar omkostnaderna och gör systemet mer stabilt för oväntade förändringar (inga bräckliga skript eller DOM-antaganden).
Codecs operatörer följer en kontinuerlig loop, uppfattning, tänk och agera. Maskinlagret strömmar miljön (t.ex. en live-app eller robotflöde) till intelligenslagret via systemlagrets optimerade kanaler, vilket ger AI:n "ögon" på det aktuella tillståndet. Agentens VLA-modell tolkar sedan det visuella objektet och instruktionerna tillsammans för att besluta om en åtgärd, som systemlagret utför genom tangentbords-/mushändelser eller robotkontroll. Den här integrerade loopen innebär att den anpassar sig till livehändelser, även om användargränssnittet ändras kommer du inte att bryta flödet.
För att sätta allt detta i en enklare analogi, tänk på Codecs operatörer som en självförsörjande anställd som anpassar sig till överraskningar på jobbet. Nuits agent är som en anställd som behöver pausa, beskriva situationen för en chef över telefon och vänta på instruktioner.
Utan att gå ner för mycket av ett tekniskt kaninhål, bör detta ge dig en hög uppfattning om varför jag valde Codec som mitt primära spel på operatörer.
Ja, Nuit har stöd från YC, ett staplat team och S tier github. Även om Codecs arkitektur har byggts med horisontell skalning i åtanke, vilket innebär att du kan distribuera tusentals agenter parallellt utan delat minne eller körningskontext mellan agenter. Codecs team är inte heller vanliga utvecklare.
Deras VLA-arkitektur öppnar en mängd användningsfall som inte var möjliga med tidigare agentmodeller på grund av att de ser genom pixlar, inte skärmdumpar.
Jag skulle kunna fortsätta men jag sparar det till framtida inlägg.
15,87K
Hatten av för @anoma testnät!
Det har en supersmidig och rolig upplevelse med sidouppdrag och dagliga uppgifter.
En ny UI- och UX-värld håller på att växa fram, och den är avsiktsbaserad ⏳

Anoma15 juli 22:08
En värld av rent uppsåt väntar...
Anoma-testnätet är live.
2,79K
Det är otroligt att vi år 2025 fortfarande ser en sådan fragmentering och projekt som studsar mellan kedjor och lager bara för att jaga hype.
🫳 Arbitrum till Berachain till Base till HyperEVM till [INSERT_NEXT_HYPED_CHAIN]
Det är bara att bygga vidare på den avsiktscentrerade världen
Bygg vidare på @anoma

Anoma10 juli 23:57
oh no you built your app on the 23rd Ethereum Layer 2 and all the users have already moved onto the 24th???

4,76K
Louround 🥂 delade inlägget
$CODEC är kodad.
Men WTF är det och varför är jag så hausse?
Låt mig ge dig en TL; DR
- @codecopenflow bygger den första omfattande plattformen för VLA-modeller (Vision-Language-Action), som gör det möjligt för AI-operatörer att se, resonera och agera autonomt över digitala gränssnitt och robotsystem genom en enhetlig infrastruktur.
- VLA:er löser/övervinner grundläggande LLM-automatiseringsbegränsningar och utnyttjar en uppfatta-tänka-agera-pipeline som gör det möjligt för dem att bearbeta dynamisk visuell semantik jämfört med nuvarande LLM:s skärmdump-anledning-exekveringsloopar som bryts vid gränssnittsändringar.
- Den tekniska arkitekturen för VLA:er slår samman syn, språkresonemang och direkta åtgärdskommandon till en enda modell snarare än separata LLM + visuella kodarsystem, vilket möjliggör anpassning i realtid och felåterställning.
- Codecs ramverksagnostiska design sträcker sig över robotik (kameraflöden för att styra kommandon), skrivbordsoperatörer (kontinuerlig gränssnittsnavigering) och spel (adaptiva AI-spelare) genom samma uppfatta-anledning-handling-cykel.
- Vad är skillnaden? LLM-drivna agenter planerar om när arbetsflöden ändras och hanterar UI-skift som bryter mot stela RPA-skript. VLA-agenter, å andra sidan, anpassar sig med hjälp av visuella ledtrådar och språkförståelse snarare än att kräva manuella patchar.
- Codecs hårdvaruagnostiska infrastruktur med kodfri träning via skärminspelning plus utvecklar-SDK, vilket positionerar den som det saknade Langchain-liknande ramverket för autonom VLA-uppgiftsutförande.
- Ramverket möjliggör mart-beräkningsaggregering från decentraliserade GPU-nätverk, möjliggör valfri onchain-inspelning för granskningsbara arbetsflödesspår och möjliggör distribution av privat infrastruktur för integritetskänsliga användningsfall.
- $CODEC tokenomics tjäna pengar på operatörsmarknaden och beräkningsbidrag, vilket skapar incitament för hållbara ekosystem när VLA:er når förväntad LLM-nivå inom olika sektorer.
- Det faktum att en av Codecs grundare har erfarenhet av att bygga HuggingFace's LeRobot bevisar legitim trovärdighet för robotteknik och ML-forskning i VLA-utveckling. Det här är inte ett genomsnittligt kryptoteam som svänger till AI-berättelser.
Kommer att dyka in i detta mer ingående snart.
Jag upprepar min rekommendation till DYOR under tiden.
$CODEC är kodad.

10,76K
Louround 🥂 delade inlägget
Varför $CODEC banar väg för framtiden för autonoma agenter @codecopenflow
Nästa gräns för AI är inte fler textmeddelanden. Det är action.
De flesta AI-agenter har idag fastnat i en loop av att läsa skärmdumpar och mata ut text. De ser inte miljöer, de förstår inte förändring och de kan inte agera med avsikt i den verkliga världen. Det är där Codecs VLA-arkitektur (Vision-Language-Action) skiljer sig åt.
Föreställ dig agenter som inte bara pratar, utan iakttar, resonerar och gör. Det är hjärtat i Codec.
Det här är inte bräckliga skript eller stela robotar. VLA-operatörer interagerar med programvara, spel eller till och med fysiska robotar genom att kontinuerligt uppfatta omgivningen, bestämma vad de ska göra och utföra kommandon: precis som en människa skulle göra.
✅ Skrivbordsagenter som anpassar sig till föränderliga användargränssnitt
✅ Spelagenter som lär sig mekanik och lägger upp strategier i realtid
✅ Robotagenter som svarar på sensordata och styr hårdvara
✅ Träning och simulering i stor skala, ingen robot behövs
Med Codecs modulära arkitektur kan du para ihop visionsmodeller med språkmodeller (som CogVLM + Mixtral) för att bygga intelligenta agenter som kan läsa, titta, förstå och agera, allt i en enda pipeline.
Varje agent körs på sin egen beräkningsenhet (VM, server eller container) och varje beslut som fattas kan loggas i kedjan. Det innebär spårbara åtgärder, säkerhetsgarantier och potentialen för kryptobaserade incitamentsystem och ansvarsutkrävandelager i miljöer med höga insatser.
Vi går mot en värld där operatörer kan utbildas, handlas och tjäna pengar. Oavsett om det är för QA-testning, automatisering av robotuppgifter eller till och med decentraliserade botarméer i spel.
Precis som appar förvandlade smarttelefonen, kommer färdighetspaket att förvandla robotar. Hårdvara med öppen källkod + nedladdningsbar intelligens = robotikens motsvarighet till mjukvaruutveckling.
Det här är inte science fiction. Det händer nu.
Sist men inte minst är det viktigaste, diagrammet är hausse som fan

10,01K
Topp
Rankning
Favoriter
Trendande på kedjan
Trendande på X
Senaste toppfinansieringarna
Mest anmärkningsvärda