Актуальні теми
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Teknium (e/λ)
Користувач Teknium (e/λ) поділився
🚀 Клонування голосу MegaTTS 3 вже тут
Для контексту: деякий час назад компанія ByteDance випустила MegaTTS 3 (з винятковими можливостями клонування голосу), але з різних причин вирішила не випускати необхідний для роботи клонування голосу кодер WavVAE.
Нещодавно компанією ACoderPassBy на ModelScope був випущений кодер WavVAE, сумісний з MegaTTS 3, з досить багатообіцяючими результатами.
В цілому виглядає досить вражаюче - в захваті від того, що ми нарешті можемо зробити клонування голосу за допомогою MegaTTS 3!
(ч/т до MysteryShack на Discord StyleTTS 2 для отримання інформації про кодер WavVAE)

1,15K
Чи не проводилося досліджень гібридних міркувань? Я збираюся зробити кілька прогонів над новою моделлю без необґрунтованого набору даних з нею.
Розповість вам, як міркування лише дані впливають на модель у порівнянні з тим, коли є дані без міркувань. Можливо, кілька тижнів матимуть хороші висновки, якщо я зможу знайти час.
4,8K
Я бачив, як усі казали, що це проблема з токенізатором

Flavio Adamo19 лип., 22:01
2020: «LLM не можуть займатися математикою».
2025: LLM виграє золото на IMO
33,9K
Користувач Teknium (e/λ) поділився
Hermes 3 з @NousResearch року є набором даних #1 на @huggingface
Я планую ним користуватися
Не спіть на Нусі
Вони:
- Створюйте дивовижні тонкі налаштування з відкритим вихідним кодом
- Побудовані розподілені обчислення
- Мати добре підібрані набори даних
- Повністю прозорі з вагою моделі та кодом
- Дублі на основі постів на X

6,95K
Моє найкраще припущення:
Рубрики + LLM Judge - Атомізуйте кожну точку в наземному доказі істинності та звіряйте з виходом моделі
Моє припущення про те, як вони зробили це масштабованим - як раніше це не було, людям доводилося скрупульозно їх створювати, чи вони навчалися або робили щось, щоб зробити дуже хороші рубрики, згенеровані для кожної конкретної проблеми або її відповіді.
22,19K
Inb4 ми запускаємо кодування ide для штучного інтелекту, щоб ми могли просто отримати хороші дані

pash19 лип., 09:58
Хочу зазначити, що для реальних завдань (а не бенчмарків) Kimi K2 перевершує Gemini.
Це телеметрія для всіх @cline користувачів, що показує частоту невдач редагування різниці. Зверніть увагу, що Kimi має близько 6% відмов, що значно краще, ніж показник помилок ~ 10% у Gemini.
Примітно, що Кімі навіть перевершив Claude 4 протягом більшої частини цього тижня, досягнувши показника відмов нижче 4%!

6,81K
Найкращі
Рейтинг
Вибране
Актуальне ончейн
Популярні в X
Нещодавнє найкраще фінансування
Найбільш варте уваги