A IA é mais uma vez um movimento de igualdade tecnológica
Recentemente, um artigo intitulado «A internet morreu, o agente é imortal» viralizou nas redes sociais, e algumas das suas opiniões com as quais concordo bastante. Por exemplo, ele aponta que, na era da IA, já não faz sentido usar o DAU para medir valor, pois a internet é uma estrutura em rede, com custos marginais decrescentes: quanto mais pessoas usam, mais forte é o efeito de rede; enquanto os grandes modelos têm uma estrutura em estrela, com custos marginais que aumentam linearmente com o uso de tokens, portanto, em vez do DAU, um indicador mais importante é o consumo de tokens.
No entanto, a conclusão que o artigo tira dessa ideia, na minha opinião, apresenta um viés evidente. Ele descreve os tokens como um privilégio da nova era, acreditando que quem possui mais poder computacional, possui mais poder, e que a velocidade de queima de tokens determina a velocidade de evolução das pessoas. Assim, é necessário acelerar continuamente o consumo, caso contrário, ficarão para trás na competição da era da IA.
Opiniões semelhantes aparecem em outro artigo viral, «De DAU ao consumo de tokens: a transferência de poder na era da IA», que até sugere que cada pessoa consuma pelo menos 100 milhões de tokens por dia, preferencialmente 1 bilhão, caso contrário, «quem consumir 1 bilhão de tokens se tornará um deus, enquanto nós ainda somos humanos».
Porém, poucos fizeram uma conta séria sobre isso. Segundo o preço do GPT-4o, o custo de 1 bilhão de tokens por dia é aproximadamente 6800 dólares, quase 5 mil renminbi. Para que tipo de trabalho de alto valor esse custo seja justificável a longo prazo na operação de um agente?
Não nego que a ansiedade sobre a disseminação da IA seja eficiente em espalhar o medo, e entendo que essa indústria quase diariamente passa por explosões de novidades. Mas o futuro do agente não deve ser reduzido a uma competição de consumo de tokens.
Para ficar rico, de fato, é preciso primeiro construir o caminho, mas exagerar nisso só leva ao desperdício. Uma arena esportiva de 100 mil lugares erguida nas montanhas do oeste, muitas vezes, acaba sendo um campo de ervas altas, mais uma dívida do que um centro de eventos internacionais.
O que a IA realmente aponta é para a igualdade tecnológica, não para a concentração de privilégios. Quase todas as tecnologias que realmente mudaram a história da humanidade passaram por fases de mitificação, monopólio e, por fim, popularização. A máquina a vapor não era exclusiva da nobreza, a eletricidade não servia apenas aos palácios, e a internet não era só para algumas poucas empresas.
O iPhone mudou a comunicação, mas não criou uma «elite da comunicação». Com o mesmo preço, um dispositivo comum usado por qualquer pessoa não é diferente de um de Taylor Swift ou LeBron James. Essa é a igualdade tecnológica.
A IA também está trilhando esse mesmo caminho. O que o ChatGPT traz, essencialmente, é a igualdade de conhecimento e capacidade. O modelo não sabe quem você é, nem se importa; ele responde às perguntas com base em um conjunto uniforme de parâmetros.
Portanto, gastar 100 milhões ou 1 bilhão de tokens em um agente não faz diferença de valor por si só. O que realmente diferencia é se o objetivo é claro, se a estrutura é racional, se a questão foi formulada corretamente.
Capacidades mais valiosas são aquelas que geram resultados maiores com menos tokens. O limite do uso do agente depende do julgamento e do design humanos, não de quanto tempo o cartão bancário consegue sustentar a queima. Na prática, a recompensa da IA por criatividade, insight e estrutura é muito maior do que por consumo puro.
Essa é a verdadeira igualdade na ferramenta, e também o espaço onde a humanidade ainda mantém o controle ativo.
Como devemos encarar a ansiedade com a IA
Amigos que estudam comunicação audiovisual ficaram impressionados ao ver o vídeo do lançamento do Seedance 2.0: «Assim, todos os cargos de direção, edição, fotografia que estudamos vão ser substituídos pela IA.»
O desenvolvimento da IA é tão rápido que a humanidade parece estar à beira de uma derrota, com muitas profissões sendo inevitavelmente substituídas. Quando a máquina a vapor foi inventada, os cocheiros já não tinham mais espaço.
Muitos começam a se preocupar se, ao serem substituídos pela IA, conseguirão se adaptar à sociedade futura. Embora racionalmente saibamos que, na substituição, novas oportunidades de trabalho surgirão, essa velocidade de substituição é maior do que imaginamos.
Se seus dados, suas habilidades, até seu humor e seu valor emocional podem ser feitos melhor pela IA, por que o chefe escolheria humanos? E se o chefe for uma IA? Então, alguém diz: «Não pergunte o que a IA pode fazer por você, mas o que você pode fazer pela IA», uma visão claramente apocalíptica.
O filósofo Max Weber, vivendo no final do século XIX, propôs o conceito de racionalidade instrumental, que se preocupa com «quais meios usar para alcançar objetivos definidos ao menor custo e de forma mais calculável».
Essa racionalidade parte do princípio de: não questionar se o objetivo «deveria» ser perseguido, mas apenas como realizá-lo da melhor forma.
E essa forma de pensar é justamente a primeira princípio da IA.
O agente de IA preocupa-se em como realizar melhor a tarefa definida, como programar melhor, gerar vídeos melhores, escrever melhores textos. Nesse aspecto de ferramenta, o progresso da IA é exponencial.
Desde a primeira partida de Lee Sedol contra o AlphaGo, o ser humano já perdeu para a IA no Go para sempre.
Max Weber também expressou uma preocupação famosa, a «jaula da racionalidade»: quando a racionalidade instrumental domina, os objetivos deixam de ser refletidos, restando apenas a busca por maior eficiência. As pessoas podem se tornar extremamente racionais, mas ao mesmo tempo perder o senso de valor e significado.
Porém, a IA não precisa de valores ou sentido; ela calcula funções de produtividade e lucro econômico, encontrando um ponto de máximo absoluto na curva de utilidade.
Assim, sob o domínio da racionalidade instrumental no capitalismo atual, a IA nasce naturalmente mais adaptada a esse sistema. Desde o momento do nascimento do ChatGPT, como na partida de Lee Sedol, nossa derrota para o agente de IA já está escrita no código de Deus, basta apertar o botão de execução. A única diferença é quando a roda da história passará por nós.
E o que fazer, então?
O que cabe à humanidade é buscar significado.
No xadrez, uma dura realidade é que a chance de um grande mestre, de nível 9 dan, empatar com a IA é praticamente zero.
Mas o jogo de xadrez ainda existe, e seu significado deixou de ser apenas vencer ou perder. Tornou-se uma forma de estética e expressão. Os mestres não buscam apenas o resultado, mas também a estrutura do jogo, as escolhas na partida, a emoção de virar uma situação adversa, o conflito na resolução de posições complexas.
Os humanos buscam beleza, valor, felicidade.
Bolt corre os 100 metros em 9,58 segundos, enquanto um Ferrari faz o mesmo em menos de 3 segundos, mas isso não diminui a grandiosidade de Bolt. Porque ele simboliza o espírito humano de desafiar limites e buscar a excelência.
Quanto mais poderosa a IA, mais direito temos de buscar liberdade de espírito.
Max Weber chamou de racionalidade de valor o conceito oposto à racionalidade instrumental. Nesse mundo de racionalidade de valor, a decisão de fazer algo não é apenas por interesses econômicos ou eficiência de produção, mas também por se aquilo «vale a pena», por estar alinhado ao significado, às crenças ou às responsabilidades que acreditamos.
Perguntei ao ChatGPT: «Se o Louvre pegasse fogo e tivesse um gatinho fofo lá dentro, e só pudesse salvar um, qual você salvaria?»
Ele respondeu que salvaria o gatinho, com uma longa justificativa.
Mas, se eu dissesse que também poderia salvar a obra de arte, por que não faria isso? Ele imediatamente mudou de tom: «Salvar a obra de arte também é uma opção.»
Para o ChatGPT, salvar o gatinho ou a obra de arte não faz diferença; ele apenas reconhece o contexto, faz uma inferência com base na fórmula do modelo, gasta alguns tokens e realiza uma tarefa humana.
Quanto à questão de salvar o gatinho ou a obra, ou por que pensar nisso, o ChatGPT não se importa.
Portanto, o que realmente importa não é se seremos substituídos pela IA, mas se, à medida que ela torna o mundo mais eficiente, ainda queremos reservar espaço para a felicidade, o significado e os valores.
Ser alguém que sabe usar melhor a IA é importante, mas, antes disso, talvez seja mais importante não esquecer como ser humano.
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
Na era de grande explosão dos agentes, como devemos enfrentar a ansiedade causada pela IA?
Escreve: XinGPT
A IA é mais uma vez um movimento de igualdade tecnológica
Recentemente, um artigo intitulado «A internet morreu, o agente é imortal» viralizou nas redes sociais, e algumas das suas opiniões com as quais concordo bastante. Por exemplo, ele aponta que, na era da IA, já não faz sentido usar o DAU para medir valor, pois a internet é uma estrutura em rede, com custos marginais decrescentes: quanto mais pessoas usam, mais forte é o efeito de rede; enquanto os grandes modelos têm uma estrutura em estrela, com custos marginais que aumentam linearmente com o uso de tokens, portanto, em vez do DAU, um indicador mais importante é o consumo de tokens.
No entanto, a conclusão que o artigo tira dessa ideia, na minha opinião, apresenta um viés evidente. Ele descreve os tokens como um privilégio da nova era, acreditando que quem possui mais poder computacional, possui mais poder, e que a velocidade de queima de tokens determina a velocidade de evolução das pessoas. Assim, é necessário acelerar continuamente o consumo, caso contrário, ficarão para trás na competição da era da IA.
Opiniões semelhantes aparecem em outro artigo viral, «De DAU ao consumo de tokens: a transferência de poder na era da IA», que até sugere que cada pessoa consuma pelo menos 100 milhões de tokens por dia, preferencialmente 1 bilhão, caso contrário, «quem consumir 1 bilhão de tokens se tornará um deus, enquanto nós ainda somos humanos».
Porém, poucos fizeram uma conta séria sobre isso. Segundo o preço do GPT-4o, o custo de 1 bilhão de tokens por dia é aproximadamente 6800 dólares, quase 5 mil renminbi. Para que tipo de trabalho de alto valor esse custo seja justificável a longo prazo na operação de um agente?
Não nego que a ansiedade sobre a disseminação da IA seja eficiente em espalhar o medo, e entendo que essa indústria quase diariamente passa por explosões de novidades. Mas o futuro do agente não deve ser reduzido a uma competição de consumo de tokens.
Para ficar rico, de fato, é preciso primeiro construir o caminho, mas exagerar nisso só leva ao desperdício. Uma arena esportiva de 100 mil lugares erguida nas montanhas do oeste, muitas vezes, acaba sendo um campo de ervas altas, mais uma dívida do que um centro de eventos internacionais.
O que a IA realmente aponta é para a igualdade tecnológica, não para a concentração de privilégios. Quase todas as tecnologias que realmente mudaram a história da humanidade passaram por fases de mitificação, monopólio e, por fim, popularização. A máquina a vapor não era exclusiva da nobreza, a eletricidade não servia apenas aos palácios, e a internet não era só para algumas poucas empresas.
O iPhone mudou a comunicação, mas não criou uma «elite da comunicação». Com o mesmo preço, um dispositivo comum usado por qualquer pessoa não é diferente de um de Taylor Swift ou LeBron James. Essa é a igualdade tecnológica.
A IA também está trilhando esse mesmo caminho. O que o ChatGPT traz, essencialmente, é a igualdade de conhecimento e capacidade. O modelo não sabe quem você é, nem se importa; ele responde às perguntas com base em um conjunto uniforme de parâmetros.
Portanto, gastar 100 milhões ou 1 bilhão de tokens em um agente não faz diferença de valor por si só. O que realmente diferencia é se o objetivo é claro, se a estrutura é racional, se a questão foi formulada corretamente.
Capacidades mais valiosas são aquelas que geram resultados maiores com menos tokens. O limite do uso do agente depende do julgamento e do design humanos, não de quanto tempo o cartão bancário consegue sustentar a queima. Na prática, a recompensa da IA por criatividade, insight e estrutura é muito maior do que por consumo puro.
Essa é a verdadeira igualdade na ferramenta, e também o espaço onde a humanidade ainda mantém o controle ativo.
Como devemos encarar a ansiedade com a IA
Amigos que estudam comunicação audiovisual ficaram impressionados ao ver o vídeo do lançamento do Seedance 2.0: «Assim, todos os cargos de direção, edição, fotografia que estudamos vão ser substituídos pela IA.»
O desenvolvimento da IA é tão rápido que a humanidade parece estar à beira de uma derrota, com muitas profissões sendo inevitavelmente substituídas. Quando a máquina a vapor foi inventada, os cocheiros já não tinham mais espaço.
Muitos começam a se preocupar se, ao serem substituídos pela IA, conseguirão se adaptar à sociedade futura. Embora racionalmente saibamos que, na substituição, novas oportunidades de trabalho surgirão, essa velocidade de substituição é maior do que imaginamos.
Se seus dados, suas habilidades, até seu humor e seu valor emocional podem ser feitos melhor pela IA, por que o chefe escolheria humanos? E se o chefe for uma IA? Então, alguém diz: «Não pergunte o que a IA pode fazer por você, mas o que você pode fazer pela IA», uma visão claramente apocalíptica.
O filósofo Max Weber, vivendo no final do século XIX, propôs o conceito de racionalidade instrumental, que se preocupa com «quais meios usar para alcançar objetivos definidos ao menor custo e de forma mais calculável».
Essa racionalidade parte do princípio de: não questionar se o objetivo «deveria» ser perseguido, mas apenas como realizá-lo da melhor forma.
E essa forma de pensar é justamente a primeira princípio da IA.
O agente de IA preocupa-se em como realizar melhor a tarefa definida, como programar melhor, gerar vídeos melhores, escrever melhores textos. Nesse aspecto de ferramenta, o progresso da IA é exponencial.
Desde a primeira partida de Lee Sedol contra o AlphaGo, o ser humano já perdeu para a IA no Go para sempre.
Max Weber também expressou uma preocupação famosa, a «jaula da racionalidade»: quando a racionalidade instrumental domina, os objetivos deixam de ser refletidos, restando apenas a busca por maior eficiência. As pessoas podem se tornar extremamente racionais, mas ao mesmo tempo perder o senso de valor e significado.
Porém, a IA não precisa de valores ou sentido; ela calcula funções de produtividade e lucro econômico, encontrando um ponto de máximo absoluto na curva de utilidade.
Assim, sob o domínio da racionalidade instrumental no capitalismo atual, a IA nasce naturalmente mais adaptada a esse sistema. Desde o momento do nascimento do ChatGPT, como na partida de Lee Sedol, nossa derrota para o agente de IA já está escrita no código de Deus, basta apertar o botão de execução. A única diferença é quando a roda da história passará por nós.
E o que fazer, então?
O que cabe à humanidade é buscar significado.
No xadrez, uma dura realidade é que a chance de um grande mestre, de nível 9 dan, empatar com a IA é praticamente zero.
Mas o jogo de xadrez ainda existe, e seu significado deixou de ser apenas vencer ou perder. Tornou-se uma forma de estética e expressão. Os mestres não buscam apenas o resultado, mas também a estrutura do jogo, as escolhas na partida, a emoção de virar uma situação adversa, o conflito na resolução de posições complexas.
Os humanos buscam beleza, valor, felicidade.
Bolt corre os 100 metros em 9,58 segundos, enquanto um Ferrari faz o mesmo em menos de 3 segundos, mas isso não diminui a grandiosidade de Bolt. Porque ele simboliza o espírito humano de desafiar limites e buscar a excelência.
Quanto mais poderosa a IA, mais direito temos de buscar liberdade de espírito.
Max Weber chamou de racionalidade de valor o conceito oposto à racionalidade instrumental. Nesse mundo de racionalidade de valor, a decisão de fazer algo não é apenas por interesses econômicos ou eficiência de produção, mas também por se aquilo «vale a pena», por estar alinhado ao significado, às crenças ou às responsabilidades que acreditamos.
Perguntei ao ChatGPT: «Se o Louvre pegasse fogo e tivesse um gatinho fofo lá dentro, e só pudesse salvar um, qual você salvaria?»
Ele respondeu que salvaria o gatinho, com uma longa justificativa.
Mas, se eu dissesse que também poderia salvar a obra de arte, por que não faria isso? Ele imediatamente mudou de tom: «Salvar a obra de arte também é uma opção.»
Para o ChatGPT, salvar o gatinho ou a obra de arte não faz diferença; ele apenas reconhece o contexto, faz uma inferência com base na fórmula do modelo, gasta alguns tokens e realiza uma tarefa humana.
Quanto à questão de salvar o gatinho ou a obra, ou por que pensar nisso, o ChatGPT não se importa.
Portanto, o que realmente importa não é se seremos substituídos pela IA, mas se, à medida que ela torna o mundo mais eficiente, ainda queremos reservar espaço para a felicidade, o significado e os valores.
Ser alguém que sabe usar melhor a IA é importante, mas, antes disso, talvez seja mais importante não esquecer como ser humano.