Alle paar Monate entsteht ein einzigartiges Projekt, das sein eigenes Rennen fahren kann. KI war größtenteils nichts anderes als ChatGPT-ähnliche Terminals und kreative Bild-/Video-Generierung. Wir hören seit mehreren Monaten, dass wir kurz davor stehen, dass alle ihre Jobs aufgrund von KI verlieren. Ja, es hat die Produktivität aller um das Zehnfache gesteigert, aber wir haben die Menschen in der Arbeitswelt nicht vollständig ersetzt. Warum? Die dominierenden KI-Assistenten von heute, von Chatbots im Browser bis hin zu experimentellen "Agenten"-Frameworks, sind stark in der Konversation, aber strukturell in der Ausführung eingeschränkt. Sie sind typischerweise auf einen Browser oder eine einfache Skriptumgebung angewiesen, um Aufgaben auszuführen. Während dies für das Abrufen von Informationen oder grundlegende Webautomatisierung funktioniert, haben diese Agenten Schwierigkeiten mit komplexen, mehrstufigen Prozessen und brechen oft zusammen, wenn die Dinge von ihrem eingeschränkten Pfad abweichen. Aktuelle KI-Agenten scheitern, weil ihnen persistente Erinnerungen und Fehlertoleranz fehlen. Wenn sie mit unerwarteten Fehlern konfrontiert werden, können sie sich nicht erholen oder anpassen, was oft zu Stillstand oder endlosen Schleifen führt. Die meisten arbeiten in begrenzten, browserbasierten Umgebungen und können nicht auf die gesamte Palette von Unternehmenssoftware zugreifen, wodurch die routinemäßige Arbeit außerhalb ihrer Reichweite bleibt. Deshalb haben wir nicht gesehen, dass KI alltägliche Unternehmensrollen wie Kundenservice und Verwaltung ersetzt. Nicht wegen mangelnder Fähigkeiten in den KI-Modellen selbst, sondern weil die Rahmenbedingungen um sie herum nicht zuverlässig genug für kritische Arbeitsabläufe sind. Was wird also benötigt? Eine neu gestaltete Systemarchitektur. Eine, die Fehlertoleranz, Gedächtnis, Zugriff, Isolation und Effizienz in einem einzigen Framework adressiert. Anstatt beim ersten unerwarteten Input zu stagnieren, sollten sie Fehler erfassen, sich anpassen und verschiedene Methoden erneut versuchen, ähnlich wie Menschen es tun, wenn etwas schiefgeht. Um KI in echte Arbeitsabläufe zu skalieren, benötigt sie persistentes Gedächtnis und Aufgabenverfolgung, um über längere Zeiträume zuverlässig zu arbeiten. Sie benötigen auch vollen Zugang zum Ökosystem, über Browser-Tools hinaus, um dieselbe Software zu verwenden, die Menschen nutzen, einschließlich Desktop-Anwendungen. Ohne sichere Isolation können Agenten nicht sicher in dedizierten Umgebungen arbeiten, was großflächige Bereitstellungen riskant macht aufgrund möglicher systemübergreifender Störungen. Wenn sie möchten, dass ihre Laufzeit konsistent und effizient ist, benötigen sie auch ein intelligentes Ressourcenmanagement, das Computer wie einen lebenden funktionierenden Körper behandelt. Für diejenigen, die die Zusammenhänge erkannt haben, bringt die aktuelle Fabric-Veröffentlichung von @Codecopenflow all dies zusammen und bietet KI-Agenten zuverlässige, vollständig dedizierte Betriebssysteme (OS), die die kognitive Kraft fortschrittlicher Modelle mit der Infrastruktur kombinieren, die sie benötigen, um wie zuverlässige digitale Arbeiter zu funktionieren. Fabric könnte an sich eine völlig unabhängige lizenzierte Software sein. Es verwandelt Agenten von browsergebundenen Skripten in autonome Betreiber mit vollem OS-Zugriff. Ähnlich wie ein DEX-Aggregator den effizientesten Preis für Sie weiterleitet, ist Fabric die Routing-Schicht, die die tiefgreifende Architektur von Codec bedient. Sie listen Ihre CPU-, GPU-, Speicherbedürfnisse und alle regionalen Präferenzen auf. Das bedeutet, die kosteneffektivsten Server wie AWS/Google Cloud oder GPU-Ressourcen von Render/IO-Netz zu finden. Codec bietet saubere SDKs und eine API für die vollständige Kontrolle über diese KI-Betreiber. Ein Unternehmen kann Codec-Agenten in seine bestehende Softwarepipeline integrieren (zum Beispiel einen Agenten starten, um eine Benutzeranfrage zu bearbeiten, und ihn dann wieder herunterfahren), ohne ihre Infrastruktur neu erfinden zu müssen. Im Kundenservice können Agenten gesamte Arbeitsabläufe, Abfrageauflösungen, CRM-Updates, Rückerstattungen verwalten und die Arbeitskosten um bis zu 90 % senken, während sie Konsistenz und Betriebszeit verbessern. Für Geschäftsabläufe automatisiert Codec repetitive Verwaltungsprozesse wie Rechnungsbearbeitung, HR-Updates und Versicherungsansprüche, insbesondere in hochvolumigen Sektoren wie Finanzen und Gesundheitswesen. Indem es sich auf eine vollständig isolierte, multi-App-Umgebung für jeden KI-Betreiber konzentriert, wird KI nicht durch die kritischen Probleme der Zuverlässigkeit und Integration eingeschränkt, die frühere Frameworks nicht adressieren konnten. Im Wesentlichen wird die Cloud-Computing-Infrastruktur in eine flexible Montagelinie für KI-Arbeiter verwandelt. Jeder "Arbeiter" erhält die richtigen Werkzeuge (Apps, OS, Datenzugriff) und ein Sicherheitsgeschirr (Isolation + Fehlermanagement), um seine Arbeit zu erledigen. Jede Verbesserung der KI-Modelle (GPT-5 usw.) erhöht nur den Wert der Codec-Plattform, da bessere "Gehirne" jetzt in diesen starken "Körper" integriert werden können, um noch komplexere Aufgaben zu bewältigen. Codec ist modellagnostisch (funktioniert mit jedem KI-Modell), sodass es von den allgemeinen Fortschritten in der KI profitieren kann, ohne an das Schicksal eines einzelnen Anbieters gebunden zu sein. Wir stehen an einem Wendepunkt, ähnlich wie in den frühen Tagen des Cloud-Computings. So wie die Unternehmen, die die Plattformen für die Cloud (Virtualisierung, AWS-Infrastruktur usw.) bereitstellten, für die Unternehmens-IT unverzichtbar wurden, wird ein Unternehmen, das die Plattform für KI-Agenten bereitstellt, die operieren, einen riesigen Markt erobern. OpenAI hat bereits ein vollständig agentisches Cloud-Coding-Terminal namens Codex veröffentlicht. Codex wird eine Mini-Lokalversion von Codex sein, die Sie auf Ihrem Computer ausführen können, aber noch wichtiger ist, dass das primäre Modell von Codex in der Cloud mit seinem eigenen Computer sein wird. Der Mitbegründer von OpenAI glaubt, dass die erfolgreichsten Unternehmen in der Zukunft diese beiden Arten von Architekturen zusammenführen werden. Kommt Ihnen das bekannt vor? Was kommt als Nächstes? Anstatt Ihnen zu sagen, was als Nächstes kommt, ist es vielleicht besser, auf das hinzuweisen, was wir noch nicht gesehen haben: - Keine bestätigte Token-Nutzbarkeit - Keine Anreize - Kein Kernfahrplan - Keine Demos - Kein Marktplatz - Minimale Partnerschaften Angesichts dessen, wie viel in der Pipeline ist, zusammen mit neuen Websites, aktualisierten Dokumenten, tiefergehenden Liquiditätspools, Community-Kampagnen/Marketing und Robotik. Codec hat noch nicht viele Karten aufgedeckt. Sicher gibt es derzeit mehr fertige browserbasierte Produkte auf dem Markt, aber wie lange, bis sie obsolet sind? Dies ist eine Investition in die Richtung der KI und die primäre Architektur, die die menschlichen Arbeitskräfte ersetzen wird. Codec kodiert.
Trissy
Trissy13. Mai 2025
Virtuelle Umgebungen für Operator-Agenten: $CODEC Meine Kernthese rund um die Explosion der KI drehte sich schon immer um den Aufstieg von Operator Agents. Damit diese Agenten jedoch erfolgreich sein können, benötigen sie einen tiefgreifenden Systemzugriff, der ihnen effektiv die Kontrolle über Ihren PC und Ihre sensiblen Daten gewährt, was zu ernsthaften Sicherheitsbedenken führt. Wir haben bereits gesehen, wie Unternehmen wie OpenAI und andere Tech-Giganten mit Nutzerdaten umgehen. Während es den meisten Menschen egal ist, tun es die Personen, die am meisten von Operator-Agenten profitieren können, die oberen 1 % absolut. Persönlich gibt es keine Chance, dass ich einem Unternehmen wie OpenAI vollen Zugriff auf meine Maschine gebe, selbst wenn dies eine Produktivitätssteigerung von 10 × bedeutet. Warum also Codec? Die Architektur des Codecs konzentriert sich auf die Einführung isolierter On-Demand-"Cloud-Desktops" für KI-Agenten. Im Mittelpunkt steht ein Kubernetes-basierter Orchestrierungsdienst (Codename Captain), der leichtgewichtige virtuelle Maschinen (VMs) in Kubernetes-Pods bereitstellt. Jeder Agent erhält eine eigene isolierte Umgebung auf Betriebssystemebene (eine vollständige Linux-Betriebssysteminstanz), in der Anwendungen, Browser oder beliebiger Code ausgeführt werden können, die vollständig von anderen Agenten und dem Host in einer Sandbox ausgeführt werden. Kubernetes kümmert sich um die Planung, automatische Skalierung und Selbstreparatur dieser Agent-Pods und gewährleistet so die Zuverlässigkeit und die Möglichkeit, viele Agent-Instanzen bei Lastbedarf hoch- und herunterzufahren Trusted Execution Environments (TEEs) werden verwendet, um diese VMs zu sichern, d. h. der Computer des Agenten kann kryptografisch isoliert werden, sein Arbeitsspeicher und seine Ausführung können vor dem Host-Betriebssystem oder dem Cloud-Anbieter geschützt werden. Dies ist für sensible Aufgaben von entscheidender Bedeutung: Zum Beispiel könnte eine VM, die in einer Enclave ausgeführt wird, API-Schlüssel oder Krypto-Wallet-Geheimnisse sicher speichern. Wenn ein KI-Agent (ein LLM-basiertes "Gehirn") Aktionen ausführen muss, sendet er API-Anfragen an den Captain-Dienst, der dann den VM-Pod des Agenten startet oder verwaltet. Der Workflow: Der Agent fordert eine Maschine an, der Captain (über Kubernetes) weist einen Pod zu und fügt ein persistentes Volume (für die Festplatte der VM) an. Der Agent kann dann eine Verbindung mit seiner VM herstellen (über einen sicheren Kanal oder eine Streaming-Schnittstelle), um Befehle auszugeben. Captain macht Endpunkte für den Agenten verfügbar, um Shell-Befehle auszuführen, Dateien hoch- und herunterzuladen, Protokolle abzurufen und sogar Snapshots der VM für eine spätere Wiederherstellung zu erstellen. Dieser Entwurf bietet dem Agent ein vollständiges Betriebssystem, in dem er arbeiten kann, jedoch mit kontrolliertem, überwachtem Zugriff. Da Codec auf Kubernetes basiert, kann es automatisch horizontal skaliert werden, wenn 100 Agenten Umgebungen benötigen, kann es 100 Pods im gesamten Cluster planen und Ausfälle durch Neustart von Pods behandeln. Die VM des Agenten kann mit verschiedenen MCP-Servern ausgestattet werden (z. B. einem "USB-Port" für KI). Das Conductor-Modul von Codec ist beispielsweise ein Container, der einen Chrome-Browser zusammen mit einem Microsoft Playwright MCP-Server zur Browsersteuerung ausführt. Auf diese Weise kann ein KI-Agent Webseiten öffnen, auf Links klicken, Formulare ausfüllen und Inhalte über Standard-MCP-Aufrufe scrapen, als wäre er ein Mensch, der den Browser steuert. Andere MCP-Integrationen können ein Dateisystem-/Terminal-MCP (damit ein Agent CLI-Befehle sicher ausführen kann) oder anwendungsspezifische MCPs (für Cloud-APIs, Datenbanken usw.) umfassen. Im Wesentlichen stellt Codec die Infrastruktur-"Wrapper" (VMs, Enclaves, Netzwerke) bereit, damit High-Level-Agent-Pläne sicher in echter Software und Netzwerken ausgeführt werden können. Anwendungsfälle Wallet-Automatisierung: Der Codec kann Wallets oder Schlüssel in eine TEE-geschützte VM einbetten, so dass ein KI-Agent mit Blockchain-Netzwerken interagieren (Handel auf DeFi, Verwaltung von Krypto-Assets), ohne geheime Schlüssel preiszugeben. Diese Architektur ermöglicht es Onchain-Finanzagenten, echte Transaktionen sicher auszuführen, was in einem typischen Agenten-Setup sehr gefährlich wäre. Der Slogan der Plattform listet die Unterstützung von "Wallets" ausdrücklich als Schlüsselfunktion auf. Ein Agent könnte beispielsweise eine CLI für eine Ethereum-Wallet in seiner Enclave ausführen, Transaktionen signieren und senden, mit der Gewissheit, dass der Agent im Falle eines Fehlverhaltens auf seine VM beschränkt ist und die Schlüssel den TEE nie verlassen. Browser- und Web-Automatisierung: CodecFlow-Agents können vollständige Webbrowser in ihrer VM steuern. Das Conductor-Beispiel zeigt, wie ein Agent Chrome startet und seinen Bildschirm in Echtzeit an Twitch streamt. Über das Playwright MCP kann der Agent wie ein menschlicher Benutzer auf Websites navigieren, auf Schaltflächen klicken und Daten abrufen. Dies ist ideal für Aufgaben wie Web-Scraping hinter Logins, automatisierte Webtransaktionen oder das Testen von Web-Apps. Traditionelle Frameworks stützen sich in der Regel auf API-Aufrufe oder einfache Headless-Browserskripte. Im Gegensatz dazu kann CodecFlow einen echten Browser mit einer sichtbaren Benutzeroberfläche ausführen, was die Handhabung komplexer Webanwendungen (z. B. mit starken JavaScript- oder CAPTCHA-Herausforderungen) unter KI-Kontrolle erleichtert. UI-Automatisierung in der Praxis (Legacy-Systeme): Da jeder Agent über ein tatsächliches Desktop-Betriebssystem verfügt, kann er ältere GUI-Anwendungen oder Remote-Desktop-Sitzungen automatisieren, die im Wesentlichen wie Robotic Process Automation (RPA) funktionieren, aber von KI gesteuert werden. Ein Agent kann z. B. eine Excel-Tabelle in seiner Windows-VM öffnen oder eine Schnittstelle zu einer alten Terminalanwendung herstellen, die über keine API verfügt. Auf der Website des Codecs wird explizit erwähnt, dass die "Legacy-Automatisierung" aktiviert wird. Dies eröffnet die Verwendung von KI für den Betrieb von Software, die nicht über moderne APIs zugänglich ist, eine Aufgabe, die ohne eine geschlossene Umgebung sehr hackig oder unsicher wäre. Die enthaltene noVNC-Integration deutet darauf hin, dass Agenten über VNC beobachtet oder gesteuert werden können, was für die Überwachung einer KI nützlich ist, die eine GUI steuert. Simulieren von SaaS-Workflows: Unternehmen haben oft komplexe Prozesse, die mehrere SaaS-Anwendungen oder Altsysteme umfassen. Zum Beispiel könnte ein Mitarbeiter Daten aus Salesforce nehmen, sie mit Daten aus einem internen ERP kombinieren und dann eine Zusammenfassung per E-Mail an einen Kunden senden. Der Codec kann es einem KI-Agenten ermöglichen, diese gesamte Sequenz auszuführen, indem er sich über einen Browser oder eine Client-Software in seiner VM bei diesen Apps anmeldet, ähnlich wie es ein Mensch tun würde. Dies ist wie RPA, aber angetrieben von einem LLM, das Entscheidungen treffen und mit Variabilität umgehen kann. Wichtig ist, dass Anmeldeinformationen für diese Apps der VM sicher zur Verfügung gestellt werden können (und sogar in einem TEE eingeschlossen sind), sodass der Agent sie verwenden kann, ohne jemals Klartext-Anmeldeinformationen zu "sehen" oder sie extern verfügbar zu machen. Dies könnte die Automatisierung routinemäßiger Backoffice-Aufgaben beschleunigen und gleichzeitig die IT-Abteilung davon überzeugen, dass jeder Agent mit den geringsten Rechten und vollständiger Überprüfbarkeit ausgeführt wird (da jede Aktion in der VM protokolliert oder aufgezeichnet werden kann). Fahrplan - Öffentliche Demo am Ende des Monats starten - Funktionsvergleich mit anderen ähnlichen Plattformen (kein Web3-Konkurrent) - TAO-Integration - Große Gaming-Partnerschaft In Bezug auf die Originalität baut Codec auf einem Fundament bestehender Technologien auf, integriert diese jedoch auf neuartige Weise für die Verwendung von KI-Agenten. Die Idee von isolierten Ausführungsumgebungen ist nicht neu (Container, VMs und TEEs sind Standard im Cloud Computing), aber ihre Anwendung auf autonome KI-Agenten mit einer nahtlosen API-Schicht (MCP) ist äußerst neu. Die Plattform nutzt offene Standards und Tools, wo immer dies möglich ist: Sie verwendet MCP-Server wie Playwright von Microsoft für die Browsersteuerung, anstatt das Rad neu zu erfinden, und plant, die Firecracker-Micro-VMs von AWS für eine schnellere Virtualisierung zu unterstützen. Es wurden auch bestehende Lösungen wie noVNC für das Streaming von Desktops abgespalten. Es wird gezeigt, dass das Projekt auf den Grundlagen bewährter Technologie (Kubernetes, Enclave-Hardware, Open-Source-Bibliotheken) aufbaut und sich bei der ursprünglichen Entwicklung auf Glue-Logik und Orchestrierung konzentriert (die "geheime Zutat" ist, wie alles zusammenarbeitet). Die Kombination aus Open-Source-Komponenten und einem bevorstehenden Cloud-Dienst (angedeutet durch die Erwähnung eines $CODEC Token-Dienstprogramms und des Zugangs zu öffentlichen Produkten) bedeutet, dass Codec bald in mehreren Formen zugänglich sein wird (sowohl als Service als auch selbst gehostet). Mannschaft Moyai: 15+ Jahre Entwicklererfahrung, derzeit leitet er die KI-Entwicklung bei Elixir Games. lil'km: 5+ Jahre KI-Entwickler, arbeitet derzeit mit HuggingFace am LeRobot-Projekt. HuggingFace ist ein riesiges Robotik-Unternehmen und Moyai arbeitet als Head of AI bei Elixir Games (unterstützt von Square Enix und Solanafdn). Ich habe persönlich mit dem gesamten Team telefoniert und mag die Energie, die sie mitbringen, sehr. Mein Freund, der sie auf meinen Radar gebracht hat, hat sie auch alle auf der Token2049 getroffen und hatte nur Gutes zu sagen. Abschließende Gedanken Es gibt noch viel zu berichten, was ich mir für zukünftige Updates und Beiträge in meinem Telegram-Kanal aufheben werde. Ich glaube seit langem, dass die Cloud-Infrastruktur die Zukunft für Operator-Agenten ist. Ich habe immer respektiert, was Nuit entwickelt, aber Codec ist das erste Projekt, das mir die Full-Stack-Überzeugung gezeigt hat, nach der ich gesucht habe. Das Team besteht eindeutig aus erstklassigen Ingenieuren. Sie haben offen gesagt, dass Marketing nicht ihre Stärke ist, was wahrscheinlich der Grund dafür ist, dass dies unter dem Radar geflogen ist. Ich werde eng mit ihnen zusammenarbeiten, um die GTM-Strategie zu gestalten, die die Tiefe dessen, was sie aufbauen, widerspiegelt. Mit einer Marktkapitalisierung von 4 Mio. $ und diesem Infrastrukturniveau fühlt es sich massiv unterbewertet an. Wenn sie ein brauchbares Produkt liefern können, könnte dies meiner Meinung nach leicht den Beginn des nächsten KI-Infrastrukturzyklus markieren. Wie immer gibt es Risiken, und obwohl ich das Team in den letzten Wochen heimlich überprüft habe, ist kein Projekt jemals vollständig teppichsicher. Kursziele? Viel höher.
11,85K