全く同感です - Flower labsは、素晴らしいものを積極的に公開している別のグループで、現在は分散型トレーニングに真正面から取り組んでいます。まだこの地域に懐疑的なすべての人にとって主要なデータポイントになるはずです-フラワーチームはそれが得るのと同じくらい正当であり、ニックレーンはフェデレーテッドラーニングの頂点のほとんどです。 私には、ML側のこの領域への大規模な学術的転換点を目の当たりにしているというすべての兆候があります。もはや逆張りではなく、そこから、メジャーで非常に影響力のある分野になるであろうものの、明らかに初期の日々へと移行しました。
nic lane
nic lane7月16日 19:35
ペーパー@_AlexanderLongおめでとうございます。しかし、あなたの取り残された@flwrlabsは、最大13B @MLSysConfの検証済みの野生で完全に分散化されたトレーニングを備えた完全なシステム(光子)を公開しました。口頭@iclr_confとして公開された分散型スタック(分離された埋め込み)の主要な手法とともに。これは、@Cambridge_Uniでの@CaMLSysと一緒に行われた作業でした。
989