Publicámos um documento de posição, juntamente com muitos na indústria, a pedir trabalho sobre a fidelidade do raciocínio em cadeia. Esta é uma oportunidade para treinar modelos que sejam interpretáveis. Estamos a investir nesta área na OpenAI, e esta perspetiva está refletida nos nossos produtos:
Jakub Pachocki
Jakub Pachocki16/07, 00:23
Estou extremamente entusiasmado com o potencial da fidelidade e interpretabilidade do chain-of-thought. Isso influenciou significativamente o design dos nossos modelos de raciocínio, começando com o o1-preview. À medida que os sistemas de IA gastam mais recursos computacionais, por exemplo, em problemas de pesquisa de longo prazo, é crítico que tenhamos alguma forma de monitorar seu processo interno. A maravilhosa propriedade dos CoTs ocultos é que, enquanto eles começam ancorados em uma linguagem que podemos interpretar, o procedimento de otimização escalável não é adversarial à capacidade do observador de verificar a intenção do modelo - ao contrário, por exemplo, da supervisão direta com um modelo de recompensa. A tensão aqui é que, se os CoTs não fossem ocultos por padrão, e víssemos o processo como parte da saída da IA, haveria um grande incentivo (e em alguns casos, necessidade) de colocar supervisão sobre isso. Acredito que podemos trabalhar para o melhor de ambos os mundos aqui - treinar nossos modelos para serem ótimos em explicar seu raciocínio interno, mas ao mesmo tempo ainda reter a capacidade de ocasionalmente verificá-lo. A fidelidade do CoT é parte de uma direção de pesquisa mais ampla, que é o treinamento para interpretabilidade: definir objetivos de uma maneira que treine pelo menos parte do sistema para permanecer honesto e monitorável em escala. Estamos continuando a aumentar nosso investimento nessa pesquisa na OpenAI.
158,49K