Saya telah menghabiskan karir saya mengejar satu pertanyaan: Bagaimana kita mengumpulkan data yang tepat untuk membuat AI bekerja di dunia nyata? Dari laboratorium Stanford hingga ruang kelas UT Austin, saya mencari di mana-mana. Jawabannya bukanlah lab AI lain, tetapi blockchain yang dibangun untuk memperlakukan data sebagai IP. Itu sebabnya saya bergabung dengan @StoryProtocol sebagai Chief AI Officer mereka. Di Stanford, saya mempelajari "robotika awan", bagaimana armada robot dapat menggunakan komputasi terdistribusi untuk belajar bersama. Saya bahkan memasang kamera dasbor di mobil saya untuk menyelesaikan ini: Jika robot hanya dapat mengunggah 5-10% dari apa yang mereka lihat, bagaimana kita memilih data yang paling berharga? Sebagian besar adalah rekaman jalan bebas hambatan yang membosankan. Tetapi <1% menangkap pemandangan langka: Waymo yang mengemudi sendiri, lokasi konstruksi, manusia yang tidak dapat diprediksi. Data "ekor panjang" itu membuat model lebih cerdas. Saya memberi label tangan, bahkan membayar layanan pelabelan Google Cloud untuk menganotasi rekaman saya dengan konsep khusus seperti "unit LIDAR" dan "kendaraan otonom", dan model terlatih yang berjalan pada TPU berukuran USB. Tapi akademisi hanya sejauh ini. Di UT Austin, pertanyaan saya bergeser: → Bagaimana cara mengumpulkan data langka untuk meningkatkan ML? → Sistem insentif apa yang sebenarnya berfungsi? Itu menarik saya ke kripto – blockchain, ekonomi token, bahkan DePIN. Saya menulis blog, menulis makalah tentang ML terdesentralisasi, tetapi masih bertanya-tanya: siapa yang sebenarnya membangun infrastruktur ini? Secara kebetulan, saya bertemu dengan tim Story. Saya diundang untuk memberikan ceramah di kantor Palo Alto mereka. Saat itu jam 6 sore, kamar masih penuh sesak. Saya mengoceh tentang "Neuro-Symbolic AI" dan diakhiri dengan slide berjudul "A Dash of Crypto." Pembicaraan itu berubah menjadi peran penasihat, yang sekarang berubah menjadi sesuatu yang jauh lebih besar. Kami berada di momen penting. Komputasi sebagian besar terpecahkan. Arsitektur model disalin dalam semalam. Parit yang sebenarnya adalah data. Tidak tergores Reddit. Bukan bahasa tanpa akhir. Tetapi data dunia nyata yang dibersihkan hak, ekor panjang, yang melatih AI yang terwujud – robot, AV, sistem yang menavigasi dunia kita yang berantakan. Bayangkan ini: Saya menangkap adegan mengemudi langka di dashcam & mendaftarkannya di Story. Seorang teman melabelinya. Agen AI membuat varian sintetis. Pada rantai berstruktur grafik Story, masing-masing menjadi IP tertaut. Royalti mengalir kembali secara otomatis. Semua orang dibayar, setiap langkah dapat dilacak secara on-chain. Itulah sebabnya saya sekarang menjadi Chief AI Officer di Story yang membangun rel untuk data pelatihan yang terdesentralisasi dan dibersihkan IP. Saatnya menjadikan data sebagai IP baru. Cerita adalah tempat untuk melakukannya. Masih banyak lagi yang akan segera datang. Ayo.
feedsImage
31,73K