xAI uruchomiło Grok 4 bez jakiejkolwiek dokumentacji dotyczącej testów bezpieczeństwa. To jest lekkomyślne i łamie najlepsze praktyki branżowe stosowane przez inne duże laboratoria AI. Jeśli xAI ma być pionierskim deweloperem AI, powinni się tak zachowywać. 🧵
Ale xAI jest zdecydowanie poza normą w porównaniu do innych deweloperów AI na czołowej linii, i to musi być podkreślone. Anthropic, OpenAI i praktyki wydania Google'a mają swoje problemy. Ale przynajmniej robią coś, cokolwiek, aby ocenić bezpieczeństwo przed wdrożeniem i dokumentować wyniki. xAI tego nie robi.
Co znajduje się w karcie systemu? Po pierwsze, oceny zdolności niebezpiecznych (DC). Mierzą one, jak dobrze model może wspierać w zadaniach, które mogą stanowić zagrożenie dla bezpieczeństwa narodowego (takich jak hakowanie czy syntezowanie broni biologicznej). Na przykład, to są oceny DC dotyczące biologii zgłoszone w karcie systemu Claude 4.
648,14K