xAI đã ra mắt Grok 4 mà không có bất kỳ tài liệu nào về thử nghiệm an toàn của họ. Điều này thật liều lĩnh và vi phạm các thực tiễn tốt nhất trong ngành mà các phòng thí nghiệm AI lớn khác tuân theo. Nếu xAI muốn trở thành một nhà phát triển AI tiên phong, họ nên hành động như vậy. 🧵
Nhưng xAI thì hoàn toàn không phù hợp so với các nhà phát triển AI tiên tiến khác, và điều này cần phải được chỉ ra. Anthropic, OpenAI và các quy trình phát hành của Google có vấn đề. Nhưng ít nhất họ cũng làm điều gì đó, bất cứ điều gì để đánh giá an toàn trước khi triển khai và ghi chép các phát hiện. xAI thì không.
Một thẻ hệ thống có gì? Trước hết, đó là các đánh giá khả năng nguy hiểm (DC). Những đánh giá này đo lường mức độ mà mô hình có thể hỗ trợ trong các nhiệm vụ có thể gây ra mối đe dọa an ninh quốc gia (như hack hoặc tổng hợp vũ khí sinh học). Ví dụ, đây là các đánh giá DC sinh học được báo cáo trong thẻ hệ thống Claude 4.
648,17K