La tokenizzazione è solo un caso speciale di "chunking" - costruire dati a basso livello in astrazioni ad alto livello - che è a sua volta fondamentale per l'intelligenza. La nostra nuova architettura, che consente il *chunking dinamico gerarchico*, non è solo priva di tokenizer, ma scala semplicemente meglio.
Sukjun (June) Hwang
Sukjun (June) Hwang12 lug, 00:06
Tokenization has been the final barrier to truly end-to-end language models. We developed the H-Net: a hierarchical network that replaces tokenization with a dynamic chunking process directly inside the model, automatically discovering and operating over meaningful units of data
Questo è stato un progetto incredibilmente importante per me - volevo risolverlo da anni, ma non avevo idea di come. Tutto questo è stato il lavoro straordinario di @sukjun_hwang e @fluorane! Ho scritto della storia del suo sviluppo e di cosa potrebbe arrivare dopo. L'H-Net:
194,68K