xAI запустила Grok 4 без какой-либо документации о своих испытаниях на безопасность. Это безрассудно и противоречит лучшим практикам отрасли, соблюдаемым другими крупными лабораториями ИИ. Если xAI собирается быть разработчиком передового ИИ, им следует вести себя соответственно. 🧵
Но xAI значительно отстает по сравнению с другими разработчиками передовых ИИ, и это нужно отметить. У практик выпуска Anthropic, OpenAI и Google есть проблемы. Но они хотя бы что-то делают, чтобы оценить безопасность до развертывания и задокументировать результаты. xAI этого не делает.
Что такое системная карта? Во-первых, это оценки опасных возможностей (DC). Они измеряют, насколько хорошо модель может помочь в задачах, которые могут представлять угрозу национальной безопасности (например, хакерство или синтез биологического оружия). Например, это оценки биологических DC, о которых сообщается в системной карте Claude 4.
648,17K