Popularne tematy
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
xAI uruchomiło Grok 4 bez jakiejkolwiek dokumentacji dotyczącej testów bezpieczeństwa. To jest lekkomyślne i łamie najlepsze praktyki branżowe stosowane przez inne duże laboratoria AI.
Jeśli xAI ma być pionierskim deweloperem AI, powinni się tak zachowywać. 🧵
Ale xAI jest zdecydowanie poza normą w porównaniu do innych deweloperów AI na czołowej linii, i to musi być podkreślone.
Anthropic, OpenAI i praktyki wydania Google'a mają swoje problemy. Ale przynajmniej robią coś, cokolwiek, aby ocenić bezpieczeństwo przed wdrożeniem i dokumentować wyniki. xAI tego nie robi.
Co znajduje się w karcie systemu? Po pierwsze, oceny zdolności niebezpiecznych (DC). Mierzą one, jak dobrze model może wspierać w zadaniach, które mogą stanowić zagrożenie dla bezpieczeństwa narodowego (takich jak hakowanie czy syntezowanie broni biologicznej). Na przykład, to są oceny DC dotyczące biologii zgłoszone w karcie systemu Claude 4.

648,14K
Najlepsze
Ranking
Ulubione