cela devrait être un événement plus important que de gagner IMO un chercheur d'openAI a dit : "leur modèle IMO "savait" ; il n'avait pas la bonne réponse" veut-il dire sans hallucination ? si les modèles savent ce qu'ils savent et quand demander de l'aide humaine — nous pourrions enfin leur faire confiance pour des tâches du monde réel
10,72K