Tópicos em alta
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Jason Wei
Pesquisador de IA @openai
Jason Wei repostou
📣 Animado para compartilhar nosso estudo do mundo real de um copiloto clínico LLM, uma colaboração entre @OpenAI e @PendaHealth.
Em 39.849 visitas de pacientes ao vivo, os médicos com IA tiveram uma redução relativa de 16% nos erros de diagnóstico e uma redução de 13% nos erros de tratamento em comparação com aqueles sem. 🧵
197,77K
Jason Wei repostou
Esta é a minha palestra de 2 meses atrás na @Cornell
"Como faço para aumentar minha produção?" Uma resposta natural é "Vou trabalhar mais algumas horas". Trabalhar mais pode ajudar, mas eventualmente você atinge um limite físico.
Uma pergunta melhor é: "Como faço para aumentar minha produção sem aumentar tanto a entrada?" Isso é alavancagem.
Ouvimos "alavancagem" com tanta frequência que sua implicação é fácil de ignorar. Minha categorização favorita de alavancagem é de Naval Ravikant: trabalho humano, capital e código / mídia. Cada um impulsionou grandes ondas de criação de riqueza na história.
No entanto, uma vez que uma fonte de alavancagem se torna popular (pense nos canais do YouTube hoje versus dez anos atrás), a concorrência comprime a margem. Portanto, quando uma nova alavancagem aparece, é uma rara chance de ganhos descomunais.
Nesta palestra, descrevo a IA como essa alavancagem emergente. Um agente de IA combina alavancagem de mão de obra (ele funciona para você e não tem permissão) com alavancagem de código (você pode copiá-lo e colá-lo).
É clichê dizer que a IA criará uma riqueza enorme. Mas usar essa lente de alavancagem nos permite interpretar o ciclo de notícias barulhento da IA de maneira consistente e identificar as oportunidades reais.
Obrigado @unsojo por me receber!
402,4K
Nova postagem no blog sobre assimetria de verificação e "lei do verificador":
A assimetria de verificação – a ideia de que algumas tarefas são muito mais fáceis de verificar do que resolver – está se tornando uma ideia importante, pois temos RL que finalmente funciona em geral.
Grandes exemplos de assimetria de verificação são coisas como quebra-cabeças de sudoku, escrever o código para um site como o instagram e problemas de BrowseComp (leva ~ 100 sites para encontrar a resposta, mas fácil de verificar quando você tiver a resposta).
Outras tarefas têm quase simetria de verificação, como somar dois números de 900 dígitos ou alguns scripts de processamento de dados. No entanto, outras tarefas são muito mais fáceis de propor soluções viáveis do que verificá-las (por exemplo, verificar os fatos de um longo ensaio ou declarar uma nova dieta como "só coma bisões").
Uma coisa importante a entender sobre a assimetria de verificação é que você pode melhorar a assimetria fazendo algum trabalho com antecedência. Por exemplo, se você tiver a chave de resposta para um problema de matemática ou se tiver casos de teste para um problema do Leetcode. Isso aumenta muito o conjunto de problemas com a assimetria de verificação desejável.
A "lei do verificador" afirma que a facilidade de treinar a IA para resolver uma tarefa é proporcional à verificabilidade da tarefa. Todas as tarefas possíveis de resolver e fáceis de verificar serão resolvidas pela IA. A capacidade de treinar a IA para resolver uma tarefa é proporcional ao fato de a tarefa ter as seguintes propriedades:
1. Verdade objetiva: todos concordam com o que são boas soluções
2. Rápido de verificar: qualquer solução pode ser verificada em poucos segundos
3. Escalável para verificar: muitas soluções podem ser verificadas simultaneamente
4. Baixo ruído: a verificação está o mais fortemente correlacionada possível com a qualidade da solução
5. Recompensa contínua: é fácil classificar a bondade de muitas soluções para um único problema
Uma instância óbvia da lei do verificador é o fato de que a maioria dos benchmarks propostos na IA são fáceis de verificar e até agora foram resolvidos. Observe que praticamente todos os benchmarks populares nos últimos dez anos se encaixam nos critérios #1-4; Os benchmarks que não atendem aos critérios # 1-4 teriam dificuldade em se tornar populares.
Por que a verificabilidade é tão importante? A quantidade de aprendizado em IA que ocorre é maximizada quando os critérios acima são satisfeitos; Você pode dar muitas etapas de gradiente, onde cada etapa tem muito sinal. A velocidade da iteração é crítica - é a razão pela qual o progresso no mundo digital tem sido muito mais rápido do que o progresso no mundo físico.
O AlphaEvolve do Google é um dos maiores exemplos de como alavancar a assimetria de verificação. Ele se concentra em configurações que atendem a todos os critérios acima e levou a uma série de avanços na matemática e em outros campos. Diferente do que temos feito em IA nas últimas duas décadas, é um novo paradigma em que todos os problemas são otimizados em um ambiente em que o conjunto de trens é equivalente ao conjunto de testes.
A assimetria de verificação está em toda parte e é emocionante considerar um mundo de inteligência irregular onde qualquer coisa que possamos medir será resolvida.

298,75K
banger direto, eu li imediatamente

Kevin Lu10 de jul., 00:01
Por que você deve parar de trabalhar na pesquisa de RL e, em vez disso, trabalhar no produto //
A tecnologia que desbloqueou a grande mudança de escala na IA é a internet, não os transformadores
Acho que é bem sabido que os dados são a coisa mais importante na IA e também que os pesquisadores optam por não trabalhar nisso de qualquer maneira. ... O que significa trabalhar com dados (de forma escalável)?
A internet forneceu uma rica fonte de dados abundantes, que era diversificada, fornecia um currículo natural, representava as competências com as quais as pessoas realmente se importam e era uma tecnologia economicamente viável para implantar em escala – tornou-se o complemento perfeito para a previsão do próximo token e foi a sopa primordial para a IA decolar.
Sem transformadores, qualquer número de abordagens poderia ter decolado, provavelmente poderíamos ter CNNs ou modelos de espaço de estado no nível do GPT-4.5. Mas não houve uma melhoria dramática nos modelos básicos desde o GPT-4. Os modelos de raciocínio são ótimos em domínios estreitos, mas não um salto tão grande quanto o GPT-4 foi em março de 2023 (mais de 2 anos atrás...)
Temos algo ótimo com o aprendizado por reforço, mas meu profundo medo é que repitamos os erros do passado (RL da era 2015-2020) e façamos pesquisas de RL que não importam.
Da mesma forma que a internet era a dupla de pré-treinamento supervisionado, qual será a dupla de RL que levará a um avanço maciço como GPT-1 -> GPT-4? Acho que parece co-design de produto de pesquisa.

18,6K
Conselho de namoro para pessoas normais: não se case cedo se você está crescendo e mudando muito a cada ano
Amigo de IA (@YiTayML): Você é como uma rede neural no meio do treinamento e a perda ainda está melhorando. Melhor treinar para a convergência em vez de tirar um instantâneo inicial do ponto de verificação
185,8K
Ainda não temos auto-aperfeiçoamentos de IA e, quando o fizermos, será um divisor de águas. Com mais sabedoria agora em comparação com os dias GPT-4, é óbvio que não será uma "decolagem rápida", mas sim extremamente gradual ao longo de muitos anos, provavelmente uma década.
A primeira coisa a saber é que o autoaperfeiçoamento, ou seja, os modelos que se treinam, não é binário. Considere o cenário de treinamento GPT-5 GPT-6, que seria incrível. O GPT-5 de repente deixaria de ser capaz de treinar o GPT-6 para treiná-lo com extrema proficiência? Definitivamente não. As primeiras execuções de treinamento GPT-6 provavelmente seriam extremamente ineficientes em tempo e computação em comparação com pesquisadores humanos. E somente depois de muitos testes, o GPT-5 realmente seria capaz de treinar o GPT-6 melhor do que os humanos.
Em segundo lugar, mesmo que um modelo pudesse se treinar, ele não melhoraria repentinamente em todos os domínios. Há um gradiente de dificuldade em quão difícil é melhorar a si mesmo em vários domínios. Por exemplo, talvez o autoaperfeiçoamento só funcione no início em domínios que já sabemos como corrigir facilmente no pós-treinamento, como alucinações básicas ou estilo. Em seguida, viria matemática e codificação, que dá mais trabalho, mas estabeleceu métodos para melhorar os modelos. E então, no extremo, você pode imaginar que existem algumas tarefas que são muito difíceis para o autoaperfeiçoamento. Por exemplo, a capacidade de falar Tlingit, uma língua nativa americana falada por ~ 500 pessoas. Será muito difícil para o modelo se auto-aperfeiçoar ao falar Tlingit, pois ainda não temos maneiras de resolver idiomas com poucos recursos como esse, exceto coletar mais dados, o que levaria tempo. Portanto, por causa do gradiente de dificuldade de autoaperfeiçoamento, nem tudo acontecerá de uma vez.
Finalmente, talvez isso seja controverso, mas, em última análise, o progresso na ciência é prejudicado por experimentos do mundo real. Alguns podem acreditar que ler todos os artigos de biologia nos diria a cura para o câncer, ou que ler todos os artigos de ML e dominar toda a matemática permitiria que você treinasse o GPT-10 perfeitamente. Se fosse esse o caso, as pessoas que leem mais artigos e estudam mais teoria seriam os melhores pesquisadores de IA. Mas o que realmente aconteceu é que a IA (e muitos outros campos) passou a ser dominada por pesquisadores impiedosamente empíricos, o que reflete quanto progresso é baseado em experimentos do mundo real, e não em inteligência bruta. Portanto, meu ponto é que, embora um agente superinteligente possa projetar experimentos 2x ou até 5x melhores do que nossos melhores pesquisadores humanos, no final do dia eles ainda precisam esperar que os experimentos sejam executados, o que seria uma aceleração, mas não uma decolagem rápida.
Em resumo, existem muitos gargalos para o progresso, não apenas inteligência bruta ou um sistema de autoaperfeiçoamento. A IA resolverá muitos domínios, mas cada domínio tem sua própria taxa de progresso. E mesmo a mais alta inteligência ainda exigirá experimentos no mundo real. Portanto, será uma aceleração e não uma decolagem rápida, obrigado por ler meu discurso retórico
339,85K
A coisa mais gratificante de trabalhar no escritório à noite e nos fins de semana não é o trabalho real que você faz, mas as conversas espontâneas com outras pessoas que estão sempre trabalhando. Eles são as pessoas que tendem a fazer grandes coisas e se tornarão seus amigos mais bem-sucedidos
74,47K
Eu diria que estamos, sem dúvida, na AGI quando a IA pode criar um unicórnio real e vivo. E não, não me refiro a uma empresa de US $ 1 bilhão, nerds, quero dizer um cavalo rosa literal com um chifre em espiral. Um modelo de avanço científico em engenharia genética e programação celular. O material dos sonhos de infância. Ouso dizer que isso acontecerá em nossas vidas
84,27K
Melhores
Classificação
Favoritos
Em alta on-chain
Em alta no X
Principais fundos da atualidade
Mais notável