AI-sentralisering vs desentralisering: Hva er verdt å spille? Se for deg to arenaer: den ene domineres av teknologigiganter som driver massive datasentre, trener grensemodeller og setter reglene. Den andre distribuerer databehandling, data og beslutningstaking på tvers av millioner av gruvearbeidere, edge-enheter og åpne fellesskap. Hvor du velger å bygge eller investere avhenger av hvilken arena du tror vil fange den neste bølgen av verdi, eller om den virkelige muligheten ligger i å bygge bro over begge. --- Hva sentralisering og desentralisering betyr i AI Sentralisert AI finnes først og fremst i hyperskala skyplattformer som AWS, Azure og Google Cloud, som kontrollerer flertallet av GPU-klynger og har en andel på 68 % av det globale skymarkedet. Disse leverandørene trener store modeller, holder vekter lukket eller under restriktive lisenser (som sett med OpenAI og Anthropic), og bruker proprietære datasett og eksklusive datapartnerskap. Styring er vanligvis selskapsmessig og styres av styrer, aksjonærer og nasjonale regulatorer. På den annen side distribuerer desentralisert AI beregning gjennom peer-to-peer GPU-markeder, som @akashnet_ og @rendernetwork, samt inferensnettverk på kjeden som @bittensor_. Disse nettverkene tar sikte på å desentralisere både opplæring og slutning. --- Hvorfor sentralisering fortsatt dominerer Det er strukturelle årsaker til at sentralisert AI fortsetter å lede. Å trene en grensemodell, for eksempel en flerspråklig modell med 2 billioner parametere, krever over 500 millioner dollar i maskinvare, elektrisitet og menneskelig kapital. Svært få enheter kan finansiere og gjennomføre slike forpliktelser. I tillegg stiller regulatoriske forpliktelser som US Executive Order on AI og EU AI Act strenge krav rundt red-teaming, sikkerhetsrapporter og åpenhet. Å møte disse kravene skaper en samsvarsgrav som favoriserer ressurssterke etablerte aktører. Sentralisering gir også mulighet for strammere sikkerhetsovervåking og livssyklusstyring på tvers av opplærings- og distribusjonsfaser. --- Sentraliserte modellsprekker Likevel har denne dominansen sårbarheter. Det er økende bekymring for konsentrasjonsrisiko. I Europa har ledere fra 44 store selskaper advart regulatorer om at EUs AI Act utilsiktet kan forsterke amerikanske skymonopoler og begrense regional AI-utvikling. Eksportkontroller, spesielt USA-ledede GPU-restriksjoner, begrenser hvem som kan få tilgang til avansert databehandling, og oppmuntrer land og utviklere til å se mot desentraliserte eller åpne alternativer. I tillegg har API-priser for proprietære modeller sett flere økninger siden 2024. Disse monopolleiene motiverer utviklere til å vurdere rimeligere, åpne eller desentraliserte løsninger. --- Desentralisert AI Vi har databehandlingsmarkeder på kjeden som Akash, Render og @ionet som gjør det mulig for GPU-eiere å leie ut ubrukt kapasitet til AI-arbeidsbelastninger. Disse plattformene utvides nå til å støtte AMD GPUer og jobber med bevis på arbeidsbelastningsnivå for å garantere ytelse. Bittensor stimulerer validatorer og modellløpere gjennom $TAO token. Føderert læring blir stadig mer populært, hovedsakelig innen helsevesen og finans, ved å muliggjøre samarbeidsopplæring uten å flytte sensitive rådata. Proof-of-inference og nullkunnskapsmaskinlæring muliggjør verifiserbare modellutdata selv når de kjører på ikke-klarert maskinvare. Dette er grunnleggende trinn for desentraliserte, tillitsløse API-er for kunstig intelligens. --- Hvor den økonomiske muligheten ligger På kort sikt (i dag til 18 måneder) er fokuset på applikasjonslagsinfrastruktur. Verktøy som lar bedrifter enkelt bytte mellom OpenAI, Anthropic, Mistral eller lokale modeller med åpen vekt vil være verdifulle. På samme måte får finjusterte studioer som tilbyr regulatoriske versjoner av åpne modeller under bedrifts-SLAer gjennomslag. På mellomlang sikt (18 måneder til 5 år) vil desentraliserte GPU-nettverk spiralere inn ettersom tokenprisene deres gjenspeiler faktisk bruk. I mellomtiden vil undernettverk i Bittensor-stil fokusert på spesialiserte oppgaver, som risikoscoring eller proteinfolding, skalere effektivt gjennom nettverkseffekter. På lang sikt (5+ år) vil edge AI sannsynligvis dominere. Telefoner, biler og IoT-enheter vil kjøre lokale LLM-er som er opplært gjennom føderert læring, noe som reduserer ventetid og skyavhengighet. Dataeierskapsprotokoller vil også dukke opp, slik at brukere kan tjene mikroroyalties ettersom enhetene deres bidrar med gradienter til globale modelloppdateringer. --- Hvordan identifisere vinnerne Prosjekter som sannsynligvis vil lykkes, vil ha en sterk teknisk vollgrav, og løse problemer rundt båndbredde, verifisering eller personvern på en måte som gir forbedringer i størrelsesordener. Økonomiske svinghjul må være godt utformet. Høyere bruk bør finansiere bedre infrastruktur og bidragsytere, ikke bare subsidiere gratispassasjerer. Styring er avgjørende. Token-stemmegivning alene er skjør, se i stedet etter råd med flere interessenter, progressive desentraliseringsveier eller token-modeller med to klasser. Til slutt, økosystem er viktig. Protokoller som integreres tidlig med utviklerverktøykjeder, vil forsterke adopsjonen raskere. --- Strategiske spill For investorer kan det være lurt å sikre seg og holde eksponering mot både sentraliserte APIer (for stabil avkastning) og desentraliserte tokens (for asymmetrisk oppside). For byggere er abstraksjonslag som tillater sanntidsveksling mellom sentraliserte og desentraliserte endepunkter, basert på ventetid, kostnad eller samsvar, en mulighet med høy innflytelse. De mest verdifulle mulighetene ligger kanskje ikke ved polene, men i bindevevet: protokoller, orkestreringslag og kryptografiske bevis som lar arbeidsbelastninger rute fritt innenfor både sentraliserte og desentraliserte systemer. Takk for at du leste!
1,15K