$CODEC: البنية التحتية لوكلاء الرؤية واللغة والعمل. تنفيذ الذكاء الاصطناعي في العالم الحقيقي - يعمل برنامج الترميز على تشغيل المشغلين والوكلاء الذين يدركون نماذج VLA (الرؤية واللغة والعمل) ويتسببون فيها. - على عكس LLMs ، يصدر المشغلون عناصر تحكم قابلة للتنفيذ: النقرات ، وضغطات المفاتيح ، والإشارات الآلية ، وليس النص فقط. - يقوم @codecopenflow بتشغيل المكدس الكامل: إدخال الرؤية → التفكير اللغوي → إجراءات العالم الحقيقي في حلقة تكيفية واحدة. - مبني على Mixtral-8x7B + CogVLM ؛ يتيح التدريب في وضع الحماية التكرار الآمن قبل النشر المباشر. - @RoboMove هو أول عرض توضيحي مباشر ؛ سيتم إطلاق SDK / API قريبا لمنشئي الوكلاء عبر واجهة المستخدم والروبوتات والألعاب. - يتعامل تصميم المشغل مع تحولات التخطيط والأخطاء والتدفقات متعددة الخطوات بدون برامج نصية هشة. - تتضمن خارطة الطريق سوق المشغل القابل لتحقيق الدخل والسجلات المستندة إلى Solana والتكديس من أجل السلامة. - أسسها @_lilkm_ (ex huggingface) و @unmoyai (إكسير) ؛ تم وضعه كبنية تحتية أساسية لنظام الذكاء الاصطناعي المتجسد. - المحفزات: إطلاق SDK ونشر وكيل الطرف الثالث والعروض التوضيحية عبر المجالات
‏‎1.81‏K