$CODEC はコード化されています。 しかし、WTFはそれであり、なぜ私はそんなに強気なのですか? TLをあげましょう。博士 - @codecopenflowは、Vision-Language-Action(VLA)モデル向けの初の包括的なプラットフォームを構築しており、AIの「オペレーター」が統合インフラストラクチャを通じてデジタルインターフェースやロボットシステム全体で自律的に見たり、推論したり、行動したりできるようにします。 - VLAは、インターフェースの変更で中断する現在のLLMのスクリーンショット-理由-実行ループに対して、動的な視覚的セマンティクスを処理できる知覚-思考-行動パイプラインを活用して、基本的なLLM自動化の制限を解決/克服します。 - VLAの技術アーキテクチャは、ビジョン、言語推論、および直接アクションコマンドを個別のLLM+ビジュアルエンコーダーシステムではなく、単一のモデルに統合し、リアルタイムの適応とエラー回復を可能にします。 - Codecのフレームワークに依存しない設計は、ロボティクス(コマンドを制御するためのカメラフィード)、デスクトップオペレーター(継続的なインターフェースナビゲーション)、ゲーム(適応型AIプレーヤー)にまたがり、同じ知覚-理由-行動のサイクルを通じて機能します。 -どう違いますか。LLMを搭載したエージェントは、ワークフローが変更されると再計画し、厳格なRPAスクリプトを壊すUIシフトを処理します。一方、VLAエージェントは、手動のパッチを必要とせずに、視覚的な手がかりと言語理解を使用して適応します。 - Codecのハードウェアに依存しないインフラストラクチャは、画面録画と開発者SDKによるノーコードトレーニングにより、自律的なVLAタスク実行に欠けているLangchainスタイルのフレームワークとして位置付けられています。 - このフレームワークは、分散型GPUネットワークからのマートコンピュートアグリゲーションを可能にし、監査可能なワークフロートレースのオプションのオンチェーン記録を可能にし、プライバシーに敏感なユースケースのためのプライベートインフラストラクチャのデプロイを可能にします。 - $CODECトケノミクスは、オペレーターのマーケットプレイスとコンピューティングの貢献を収益化し、VLAがさまざまなセクターで予想されるLLMレベルの卓越性に到達するにつれて、持続可能なエコシステムのインセンティブを生み出します。 - Codecの共同創設者がHuggingFaceのLeRobotを構築した経験を持っているという事実は、VLA開発における正当なロボティクスとML研究の信頼性を証明しています。これは、AIの物語に軸足を移す平均的な暗号チームではありません。 これについては、近日中にさらに深く掘り下げる予定です。 その間にDYORへの私の推薦を繰り返します。 $CODEC はコード化されています。
10.73K