AI:s nästa gräns är inte beräkning eller större modeller, det är bättre data. Idag tar vi in en av de få personer som faktiskt tillbringade sitt liv med att lösa det problemet. Välkommen @SPChinchali, vår nya Chief AI Officer. Gränsen för AI definieras inte längre av modeller med fler parametrar eller beräkningskluster med fler GPU:er. Det kommer att definieras av bristen på IP-godkända data med hög integritet från den fysiska världen (tänk robotik, autonom hårdvara och edge-enheter). Sandeep har tillbringat sin karriär med att jaga denna gräns. Nu hjälper han oss att låsa upp den. När jag träffade Sandeep för första gången slogs jag av hans lågmälda och älskvärda attityd. Han har ett sätt att tala som drar in dig, oavsett om han förklarar neurosymbolisk AI eller berömmer det utomjordiska ergonomiska tangentbordet han bär med sig vart han än går. Hans bakgrund talar för sig själv: Stanford PhD, NASA JPL. Sandeep, som nu är professor vid UT Austin, leder forskning i skärningspunkten mellan decentraliserad ML och robotik och har varit besatt av hur man får användbar data för AI-träning för att göra den användbar i den verkliga världen: > att skapa dataincitament för distribuerade nätverk, > att ta itu med det grundläggande problemet med long-tail-provtagning inom edge robotics, och > att designa system som bevarar proveniens. Sandeep bekräftade också en tes som jag har varit besatt av i åratal: den verkliga vallgraven är data. Inte skrapade Reddit-forum eller generisk webbtext, utan hänförliga, rättigheter rensade, verkliga data. De röriga, oförutsägbara data som krävs för att göra fysiska system robusta kan inte simuleras. Det handlar om att samla in och kurera de röriga, långsvansdata som fysiska system ser i det vilda: den hala lastkajroboten klockan 2 på natten, den svaga mikrosprickan på ett vindkraftverksblad, hörnhöljet som en lidar-enhet aldrig har sett förut. Dessa stunder är IP, och de är värdefulla. Om vi kan göra den immateriella rättigheten programmerbar, licensierbar, spårbar och intäktsgenererande i realtid, låser vi upp ett svänghjul för varje AI-team på planeten. Programmerbar IP är den enda ryggraden som gör detta möjligt. De flesta crypto x AI försöker skruva fast "AI" på befintlig infrastruktur. Sandeep går med eftersom Story är byggt från grunden för att lösa den här typen av utmaningar med datakoordinering Story är byggt för dynamiska, komponerbara relationer. Vårt protokoll är utformat för den grafbaserade härkomst, dynamiska licensiering och automatiserade royaltyflöden som moderna AI-system kräver. Ett foto kan licensieras, en etikett kan läggas till, en syntetisk variant kan genereras och på Story blir varje åtgärd en ny, länkad IP-tillgång i en transparent graf, med värde som flödar tillbaka till varje bidragsgivare. Sandeeps ankomst blir en vändpunkt. Kapitel 2 i Story kommer i fokus, och nästa fas av AI-infrastrukturen har bara börjat. Hans kombination av djupt intellekt, genuin nyfikenhet och tyst hängivenhet är precis vad detta ögonblick kräver. Vi kunde inte vara mer exalterade över att bygga framtiden för AI med honom, och det kommer mycket mer. Håll ögonen öppna!
Sandeep Chinchali
Sandeep Chinchali17 juli 23:00
Jag har ägnat min karriär åt att jaga en fråga: Hur samlar vi in rätt data för att få AI att fungera i den verkliga världen? Från Stanfords labb till UT Austins klassrum sökte jag överallt. Svaret är inte ännu ett AI-labb, utan en blockkedja byggd för att behandla data som IP. Det är därför jag ansluter mig till @StoryProtocol som deras Chief AI Officer. På Stanford studerade jag "cloud robotics", hur flottor av robotar kan använda distribuerad databehandling för att lära sig tillsammans. Jag monterade till och med en dashcam i min bil för att lösa detta: Om robotar bara kunde ladda upp 5–10 % av det de ser, hur skulle vi då kunna välja ut den mest värdefulla datan? Det mesta var tråkiga motorvägsfilmer. Men <1 % fångade sällsynta scener: självkörande Waymos, byggarbetsplatser, oförutsägbara människor. Dessa "long-tail"-data gjorde modellerna smartare. Jag handmärkte den, betalade till och med Google Clouds märkningstjänst för att kommentera mina filmer med nischade koncept som "LIDAR-enhet" och "autonomt fordon", och tränade modeller som kördes på en TPU i USB-storlek. Men akademin når bara till en viss gräns. På UT Austin skiftade mina frågor: → Hur crowdsourcar vi sällsynta data för att förbättra ML? → Vilka incitamentsystem fungerar egentligen? Det drog mig in på krypto – blockkedjor, tokenekonomier, till och med DePIN. Jag bloggade, skrev artiklar om decentraliserad ML, men undrade ändå: vem är det egentligen som bygger den här infrastrukturen? Av en ren slump kom jag i kontakt med Story-teamet. Jag blev inbjuden att hålla ett föredrag på deras kontor i Palo Alto. Klockan var 18.00 och rummet var fortfarande fullsatt. Jag svamlade om "Neuro-Symbolic AI" och avslutade med en bild som hette "A Dash of Crypto". Det samtalet övergick i en rådgivande roll, som nu blev något mycket större. Vi befinner oss i ett avgörande skede. Beräkning är till största delen löst. Modellarkitekturer kopieras över natten. Den verkliga vallgraven är data. Inte skrapad Reddit. Inte oändligt språk. Men rättighetssäkrade, long-tail, verkliga data som tränar förkroppsligad AI – robotar, AV, system som navigerar i vår röriga värld. Föreställ dig detta: Jag fångar en sällsynt körscen med dashcam och registrerar den på Story. En vän sätter en etikett på det. En AI-agent skapar syntetiska varianter. På Storys grafstrukturerade kedja blir var och en länkad IP. Royalties flödar tillbaka automatiskt. Alla får betalt, varje steg kan spåras i kedjan. Det är därför jag nu är Chief AI Officer på Story och bygger rälsen för decentraliserad, IP-godkänd träningsdata. Det är dags att göra data till den nya IP-adressen. Story är platsen att göra det på. Mycket mer kommer snart. Kom så går vi.
feedsImage
6,96K