AI-centralisering vs decentralisering: Vad är värt att spela? Föreställ dig två arenor: den ena domineras av teknikjättar som driver enorma datacenter, tränar gränsmodeller och sätter reglerna. Den andra distribuerar beräkning, data och beslutsfattande över miljontals gruvarbetare, gränsenheter och öppna samhällen. Var du väljer att bygga eller investera beror på vilken arena du tror kommer att fånga nästa våg av värde, eller om den verkliga möjligheten ligger i att överbrygga båda. --- Vad centralisering och decentralisering betyder i AI Centraliserad AI finns främst i storskaliga molnplattformar som AWS, Azure och Google Cloud, som kontrollerar majoriteten av GPU-kluster och har en andel på 68 % av den globala molnmarknaden. Dessa leverantörer tränar stora modeller, håller vikter stängda eller under restriktiva licenser (som med OpenAI och Anthropic) och använder proprietära datauppsättningar och exklusiva datapartnerskap. Styrningen är vanligtvis företagsstyrning som styrs av styrelser, aktieägare och nationella tillsynsmyndigheter. Å andra sidan distribuerar decentraliserad AI beräkning via peer-to-peer GPU-marknader, som @akashnet_ och @rendernetwork, samt inferensnätverk på kedjan som @bittensor_. Dessa nätverk syftar till att decentralisera både träning och inferens. --- Varför centralisering fortfarande dominerar Det finns strukturella orsaker till att centraliserad AI fortsätter att leda. Att träna en gränsmodell, till exempel en flerspråkig modell med en parameter på 2 biljoner, kräver över 500 miljoner dollar i hårdvara, elektricitet och humankapital. Mycket få enheter kan finansiera och genomföra sådana åtaganden. Dessutom ställer regulatoriska skyldigheter som den amerikanska exekutiva ordern om AI och EU:s AI Act strikta krav på red-teaming, säkerhetsrapporter och transparens. Att uppfylla dessa krav skapar en vallgrav för efterlevnad som gynnar etablerade företag med goda resurser. Centralisering möjliggör också strängare säkerhetsövervakning och livscykelhantering under utbildnings- och distributionsfaserna. --- Centraliserade modellsprickor Men denna dominans har sårbarheter. Det finns en ökande oro över koncentrationsrisken. I Europa har chefer från 44 stora företag varnat tillsynsmyndigheter för att EU:s AI Act oavsiktligt kan stärka USA:s molnmonopol och begränsa den regionala AI-utvecklingen. Exportkontroller, särskilt USA-ledda GPU-begränsningar, begränsar vem som kan komma åt avancerad databehandling, vilket uppmuntrar länder och utvecklare att titta på decentraliserade eller öppna alternativ. Dessutom har API-prissättningen för proprietära modeller ökat flera gånger sedan 2024. Dessa monopolhyror motiverar utvecklare att överväga billigare, öppna eller decentraliserade lösningar. --- Decentraliserad AI Vi har beräkningsmarknader på kedjan som Akash, Render och @ionet som gör det möjligt för GPU-ägare att hyra ut oanvänd kapacitet till AI-arbetsbelastningar. Dessa plattformar expanderar nu för att stödja AMD GPU:er och arbetar med bevis på arbetsbelastningsnivå för att garantera prestanda. Bittensor uppmuntrar validerare och modelllöpare genom $TAO token. Federerad inlärning blir allt vanligare, främst inom hälso- och sjukvård och finans, genom att möjliggöra samarbetsträning utan att flytta känsliga rådata. Proof-of-inference och maskininlärning med nollkunskap möjliggör verifierbara modellutdata även när de körs på ej betrodd maskinvara. Det här är grundläggande steg för decentraliserade, pålitliga AI-API:er. --- Var den ekonomiska möjligheten finns På kort sikt (idag till 18 månader) ligger fokus på infrastruktur på applikationsnivå. Verktyg som gör det möjligt för företag att enkelt växla mellan OpenAI, Anthropic, Mistral eller lokala modeller med öppen vikt kommer att vara värdefulla. På samma sätt vinner finjusterade studior som erbjuder regelkompatibla versioner av öppna modeller under företags-SLA:er dragkraft. På medellång sikt (18 månader till 5 år) skulle decentraliserade GPU-nätverk hamna i en spiral eftersom deras tokenpriser återspeglar den faktiska användningen. Samtidigt kommer Bittensor-liknande undernätverk som fokuserar på specialiserade uppgifter, som riskbedömning eller proteinveckning, att skalas effektivt genom nätverkseffekter. På lång sikt (5+ år) kommer edge AI sannolikt att dominera. Telefoner, bilar och IoT-enheter kommer att köra lokala LLM:er som tränats genom federerad inlärning, vilket minskar latensen och molnberoendet. Protokoll för dataägande kommer också att dyka upp, vilket gör det möjligt för användare att tjäna mikroroyalties eftersom deras enheter bidrar med gradienter till globala modelluppdateringar. --- Hur man identifierar vinnarna Projekt som sannolikt kommer att lyckas kommer att ha en stark teknisk vallgrav som löser problem kring bandbredd, verifiering eller integritet på ett sätt som ger förbättringar i storleksordningar. Ekonomiska svänghjul måste vara väl utformade. Ökad användning bör finansiera bättre infrastruktur och bidragsgivare, inte bara subventionera fripassagerare. Styrning är viktigt. Enbart tokenröstning är bräcklig, leta istället efter flerpartsråd, progressiva decentraliseringsvägar eller tokenmodeller med dubbla klasser. Slutligen är det viktigt att dra nytta av ekosystemet. Protokoll som integreras tidigt med utvecklarverktygskedjor kommer att förvärra implementeringen snabbare. --- Strategiska spel För investerare kan det vara klokt att säkra och hålla exponering mot både centraliserade API:er (för stabil avkastning) och decentraliserade tokens (för asymmetrisk uppsida). För byggare är abstraktionslager som gör det möjligt att växla i realtid mellan centraliserade och decentraliserade slutpunkter, baserat på latens, kostnad eller efterlevnad, en möjlighet med hög hävstångseffekt. De mest värdefulla möjligheterna kanske inte ligger vid polerna utan i bindväven: protokoll, orkestreringslager och kryptografiska bevis som gör att arbetsbelastningar kan dirigeras fritt inom både centraliserade och decentraliserade system. Tack för att du läste!
1,18K