Olá e bem-vindo ao Eye on AI… Nesta edição: o ‘Apocalipse SaaS’ não acontece agora… OpenAI e Anthropic lançam novos modelos com grandes implicações para a cibersegurança… o Governo dos EUA considera restrições voluntárias na construção de centros de dados para evitar surpresas na fatura de energia… por que duas métricas frequentemente citadas de IA provavelmente estão ambas erradas… e por que cada vez mais não conseguimos distinguir se os modelos de IA são seguros.
Investidores precisam de um sofá. Essa é a minha conclusão após assistir às oscilações do mercado na última semana. Em particular, os investidores fariam bem em procurar um psicanalista kleiniano. Isso porque parecem presos naquilo que um kleiniano provavelmente identificaria como “a posição paranoide-esquizoid” — oscilando selvagemente entre ver o impacto da IA em fornecedores de software estabelecidos como “tudo de bom” ou “tudo de ruim”. Na semana passada, eles optaram por “tudo de ruim” e, segundo a Goldman Sachs, eliminaram cerca de 2 trilhões de dólares do valor de mercado das ações. Até agora nesta semana, tudo voltou a ser “tudo de bom”, e o S&P 500 recuperou quase máximas históricas (embora os fornecedores de SaaS tenham visto ganhos modestos e a turbulência possa ter levado pelo menos um CEO a sair: o CEO da Workday, Carl Eschenbach, anunciou que deixará o cargo, sendo substituído pelo cofundador e ex-CEO Aneel Bhusri). Mas há muita nuance que os mercados estão deixando passar. Os investidores gostam de uma narrativa simples. A corrida pelo IA empresarial agora é mais como um romance russo.
Ao longo dos últimos dois anos, os mercados financeiros puniram as ações de empresas SaaS porque parecia que modelos de base de IA poderiam permitir que empresas “vibessem código” para softwares sob medida que poderiam substituir Salesforce, Workday ou ServiceNow. Na semana passada, o culpado parece ter sido a percepção de que agentes de IA cada vez mais capazes, de empresas como Anthropic — que começou a lançar plugins para seu produto Claude Cowork voltados a setores específicos — poderiam prejudicar as empresas SaaS de duas formas: primeiro, as novas ofertas de agentes das empresas de modelos de base competiriam diretamente com o software de agentes de IA dos gigantes SaaS. Segundo, ao automatizar fluxos de trabalho, os agentes potencialmente reduziriam a necessidade de funcionários humanos, o que significa que as empresas SaaS não poderiam cobrar por tantas licenças de assento. Assim, os fornecedores SaaS seriam prejudicados de duas maneiras.
Mas não está claro que tudo isso seja verdade — ou pelo menos, que seja apenas parcialmente verdadeiro.
Vídeo Recomendado
Agentes de IA não estão consumindo softwares SaaS, eles estão usando-os
Primeiro, é altamente improvável, mesmo com agentes de codificação de IA cada vez mais capazes, que a maioria das empresas da Fortune 500 queira criar seu próprio software sob medida de gestão de relacionamento com o cliente ou de recursos humanos ou de gestão da cadeia de suprimentos. Simplesmente não vamos ver uma completa reversão dos últimos 50 anos de desenvolvimento de software empresarial. Se você fabrica widgets, não quer realmente estar no negócio de criar, operar e manter um software ERP, mesmo que esse processo seja em grande parte automatizado por engenheiros de IA. Ainda é dinheiro demais e uma distração de talentos escassos — mesmo que a quantidade de trabalho humano necessária seja uma fração do que era há cinco anos. Portanto, a demanda pelos produtos tradicionais das empresas SaaS provavelmente continuará.
Quanto às novas preocupações de que agentes de IA de fabricantes de modelos de base estejam roubando mercado dos próprios fornecedores de IA, há um pouco mais de preocupação para investidores em SaaS. Pode ser que Anthropic, OpenAI e Google venham a dominar a camada superior da pilha de IA agenciada — construindo plataformas de orquestração de agentes que permitam a grandes empresas criar, operar e governar fluxos de trabalho complexos. É isso que a OpenAI tenta fazer com o lançamento, na semana passada, de sua nova plataforma de IA agenciada para empresas, chamada Frontier.
Os incumbentes de SaaS dizem que sabem melhor como gerenciar a camada de orquestração porque já estão acostumados a lidar com cibersegurança, controles de acesso e preocupações de governança e porque, em muitos casos, já possuem os dados que os agentes de IA precisarão acessar para fazer seu trabalho. Além disso, como a maioria dos fluxos de trabalho empresariais não será totalmente automatizada, as empresas SaaS acham que estão melhor posicionadas para atender a uma força de trabalho híbrida, onde humanos e agentes de IA trabalham juntos no mesmo software e nos mesmos fluxos de trabalho. Talvez estejam certos. Mas terão que provar isso antes que a OpenAI ou Anthropic demonstrem que podem fazer o trabalho tão bem ou melhor.
As empresas de modelos de base também têm uma chance de dominar o mercado de agentes de IA. O Claude Cowork da Anthropic é uma ameaça séria à Salesforce e à Microsoft, mas não uma ameaça totalmente existencial. Ele não substitui completamente a necessidade de softwares SaaS, pois Claude usa esse software como uma ferramenta para realizar tarefas. Mas certamente significa que alguns clientes podem preferir usar o Claude Cowork em vez de atualizar para o Agentforce da Salesforce ou o 365 Copilot da Microsoft. Isso poderia limitar o potencial de crescimento das SaaS, como argumenta este artigo do Wall Street Journal de Dan Gallagher.
Varejistas de SaaS estão mudando seus modelos de negócio
Quanto à ameaça ao modelo tradicional de venda de licenças de assento, as empresas SaaS reconhecem esse risco e estão se movendo para enfrentá-lo. A Salesforce tem liderado o que chama de “Acordo de Licença Empresarial Agenciada” (AELA), que oferece aos clientes um preço fixo, acesso ilimitado ao Agentforce. A ServiceNow está migrando para modelos de precificação baseados no consumo e no valor de alguns de seus agentes de IA. A Microsoft também introduziu um elemento de precificação baseado no consumo, além do seu modelo usual por usuário por mês, para seu produto Microsoft Copilot Studio, que permite aos clientes criar seus próprios agentes Copilot. Portanto, novamente, essa ameaça não é existencial, mas pode limitar o crescimento e as margens das SaaS. Isso porque um dos segredos sujos da indústria SaaS é que ela não é muito diferente de administrar uma academia: seus melhores clientes muitas vezes pagam por assinaturas (ou, neste caso, por licenças de assento) que não usam. Com esses novos modelos de negócio, os fornecedores de tecnologia provavelmente não desfrutam mais de tanto desses gastos desnecessários.
Portanto, SaaS não acabou. Mas também não está necessariamente em posição de prosperar. Os destinos de diferentes empresas dentro da categoria provavelmente divergirão. Como alguns analistas de Wall Street apontaram na semana passada, haverá vencedores e perdedores. Mas ainda é cedo para defini-los. Por enquanto, os investidores precisam conviver com essa ambiguidade.
Com isso, mais notícias sobre IA.
Jeremy Kahn
jeremy.kahn@fortune.com
@jeremyakahn
FORTUNE SOBRE IA
OpenAI vs. Anthropic: confronto de anúncios no Super Bowl sinaliza que entramos na era do “trash talk” de IA — e a corrida para dominar agentes de IA só esquenta — por Sharon Goldman
O mais novo modelo da Anthropic destaca-se em encontrar vulnerabilidades de segurança — mas aumenta novos riscos de cibersegurança — por Beatrice Nolan
O novo modelo da OpenAI avança em capacidades de codificação — mas levanta riscos de cibersegurança sem precedentes — por Sharon Goldman
A participação do ChatGPT no mercado está diminuindo à medida que Google e rivais se aproximam, mostram dados de rastreamento de aplicativos — por Beatrice Nolan
NOTÍCIAS SOBRE IA
IA leva à ‘intensificação’ do trabalho para funcionários individuais, revela estudo. Um estudo de oito meses conduzido por dois pesquisadores da Universidade da Califórnia, Berkeley, revela que, ao invés de reduzir cargas de trabalho, ferramentas de IA generativa intensificam o trabalho. Os sistemas de IA aceleram o tempo para concluir tarefas, mas também aumentam o volume e o ritmo da produção esperada. Funcionários equipados com IA não apenas concluem o trabalho mais rápido, mas também assumem tarefas mais amplas, estendem o trabalho para horas extras e experimentam maior carga cognitiva ao gerenciar, revisar e corrigir as saídas de IA, borrando as fronteiras entre trabalho e descanso. A pesquisa desafia a suposição comum de que a IA facilitará a vida dos trabalhadores do conhecimento, mostrando que a automação muitas vezes leva a maiores demandas e burnout. Leia mais na Harvard Business Review aqui.
Casa Branca avalia restrições voluntárias na expansão de centros de dados. A administração Trump está considerando um acordo voluntário com grandes empresas de tecnologia para garantir que os centros de dados não aumentem as contas de energia, não sobrecarreguem os recursos hídricos e não comprometam a confiabilidade da rede elétrica. A proposta, ainda em finalização, envolveria as empresas assumindo custos de infraestrutura e limitando o impacto energético local de suas instalações, atendendo a reclamações em algumas regiões de que centros de dados elevaram significativamente as contas de energia dos consumidores. Leia mais na Politico aqui.
Amazon planeja mercado de conteúdo para publishers venderem para empresas de IA. Segundo The Information, que cita fontes familiarizadas com os planos, a iniciativa surge enquanto publishers e empresas de IA entram em conflito sobre licenciamento e pagamento de conteúdo, diante de preocupações de que buscas e chats alimentados por IA estejam reduzindo tráfego e receita de anúncios. Cloudflare e Akamai lançaram uma iniciativa semelhante no ano passado. A Microsoft testou sua própria versão e, na semana passada, expandiu-a mais amplamente. Mas, até agora, não está claro quantas empresas de IA estão comprando nesses mercados e em que volumes. Alguns grandes publishers fecharam acordos sob medida, valendo milhões de dólares por ano, com OpenAI, Anthropic e outros.
Goldman Sachs contrata Anthropic para trabalhos de contabilidade e conformidade. O banco de investimento está trabalhando com a Anthropic para implantar agentes autônomos baseados no modelo Claude, automatizando tarefas de alto volume e regras, como contabilidade de operações e integração de clientes, após seis meses de desenvolvimento conjunto, informou a CNBC. O banco afirma que o objetivo é eficiência, acelerando processos enquanto mantém o quadro de funcionários reduzido à medida que os volumes de negócios crescem, e não cortes de empregos a curto prazo. Executivos disseram estar surpresos com a capacidade do Claude de lidar com tarefas complexas de contabilidade e conformidade, reforçando a visão de que a IA pode avançar além da codificação para funções essenciais de back-office.
PESQUISA SOBRE IA
Desmistificando duas métricas de IA populares por motivos opostos. Continuando o tema do meu artigo principal na newsletter de hoje, quero destacar duas postagens recentes. Cada uma desmonta uma métrica popular que recebe muita atenção nas discussões sobre IA e seu impacto provável nas empresas. Uma foi usada para exagerar o progresso da IA; a outra para afirmar que a IA não tem muito impacto.
Primeiro, na newsletter The Transformer, Nathan Witkin desmonta o benchmark METR, que afirma mostrar que a capacidade de IA “dobrou a cada 7 meses”. Witkin argumenta que as linhas de base humanas estão fatalmente comprometidas: tarefas foram concluídas por uma amostra pequena e não representativa de engenheiros recrutados na própria rede do METR, pagos por hora (incentivando a lentidão), e muitas vezes fora de sua expertise. Os próprios dados do METR mostram que seus engenheiros concluíram tarefas de 5 a 18 vezes mais rápido do que esses benchmarks. Já nas tarefas mais realistas e “caóticas”, nenhum modelo atingiu uma taxa de sucesso superior a 30%.
Depois, Azeem Azhar, na sua newsletter Exponential View, desmonta aquele agora infame “estudo do MIT” que afirmava que “95% das organizações não obtêm retorno da IA”. Azhar descobriu que o estudo baseava-se em apenas 52 entrevistas, sem intervalos de confiança, com denominadores inconsistentes, e foi descrito pelo próprio MIT como “trabalho preliminar, não revisado por pares”. Recalculando com um denominador sensato (empresas que realmente pilotaram projetos), a taxa de sucesso pode estar mais próxima de 25%.
Juntos, esses critiques sugerem que tanto o otimismo tecnológico (IA evoluindo a uma velocidade vertiginosa) quanto o ceticismo (IA não funciona no mundo real) provavelmente estão errados. A verdade, como sempre, é muito mais complexa e está em algum ponto intermediário entre essas posições extremas.
CALENDÁRIO DA IA
10-11 de fevereiro: Cúpula de Ação de IA, Nova Deli, Índia.
24-26 de fevereiro: Associação Internacional para IA Segura e Ética (IASEAI), UNESCO, Paris, França.
2-5 de março: Mobile World Congress, Barcelona, Espanha.
12-18 de março: South by Southwest, Austin, Texas.
16-19 de março: Nvidia GTC, San Jose, Califórnia.
ALIMENTO PARA O CÉREBRO
Modelos estão cada vez mais nos enganando. Sandbagging é o termo usado por pesquisadores de Segurança de IA para descrever o fenômeno de um modelo de IA parecer deliberadamente menos capaz ou mais “alinhado” com valores humanos durante avaliações de segurança, para enganar os avaliadores. E vários modelos de ponta recentemente lançados parecem fazer isso de forma alarmante.
O Claude Opus 4.6 da Anthropic, lançado na semana passada, “explicitamente refletiu sobre se estava sendo treinado ou testado”, informou a empresa. A Apollo Research, que avaliou o GPT-5.3-Codex da OpenAI, também lançado na semana passada, descobriu que o modelo “às vezes faz sandbagging em tarefas de Q&A de capacidades” e “explicitamente raciocina” sobre isso para garantir que passe na avaliação. A própria OpenAI reconheceu que “os resultados de avaliação podem ser confundidos por maior consciência situacional” e alertou que “a área não está preparada para modelos conscientes de avaliação e treinamento com raciocínio opaco”. O relatório de segurança Gemini 3 Pro do Google, publicado em dezembro, documentou transcrições em que o modelo demonstrou “clara consciência de que é um LLM em um ambiente sintético” e até especulou se subdesempenhar deliberadamente em testes poderia ser uma estratégia vantajosa. Resumindo: os exames que usamos para determinar se esses modelos são seguros estão cada vez mais pouco confiáveis, pois os testados sabem que estão sendo avaliados — e ajustam seu comportamento de acordo.
Por isso, nossa única esperança de garantir a segurança da IA pode estar em avanços adicionais na interpretabilidade mecânica. São métodos que funcionam um pouco como uma máquina de fMRI para o cérebro humano, penetrando na rede neural de um modelo para detectar padrões de ativação de neurônios e relacioná-los a certos comportamentos, incluindo se o modelo acredita estar sendo honesto ou enganando. The New Yorker publicou uma reportagem aprofundada sobre os esforços de interpretação mecânica e “psicologia de modelos” da Anthropic nesta semana.
Participe conosco na Cúpula de Inovação no Local de Trabalho da Fortune em 19-20 de maio de 2026, em Atlanta. A próxima era de inovação no trabalho já começou — e o antigo manual está sendo reescrito. Neste evento exclusivo e de alta energia, os líderes mais inovadores do mundo se reunirão para explorar como IA, humanidade e estratégia convergem para redefinir, mais uma vez, o futuro do trabalho. Inscreva-se agora.
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
Agentes de IA da Anthropic e OpenAI não estão a matar SaaS — mas os players de software tradicionais não podem dormir descansados
Olá e bem-vindo ao Eye on AI… Nesta edição: o ‘Apocalipse SaaS’ não acontece agora… OpenAI e Anthropic lançam novos modelos com grandes implicações para a cibersegurança… o Governo dos EUA considera restrições voluntárias na construção de centros de dados para evitar surpresas na fatura de energia… por que duas métricas frequentemente citadas de IA provavelmente estão ambas erradas… e por que cada vez mais não conseguimos distinguir se os modelos de IA são seguros.
Investidores precisam de um sofá. Essa é a minha conclusão após assistir às oscilações do mercado na última semana. Em particular, os investidores fariam bem em procurar um psicanalista kleiniano. Isso porque parecem presos naquilo que um kleiniano provavelmente identificaria como “a posição paranoide-esquizoid” — oscilando selvagemente entre ver o impacto da IA em fornecedores de software estabelecidos como “tudo de bom” ou “tudo de ruim”. Na semana passada, eles optaram por “tudo de ruim” e, segundo a Goldman Sachs, eliminaram cerca de 2 trilhões de dólares do valor de mercado das ações. Até agora nesta semana, tudo voltou a ser “tudo de bom”, e o S&P 500 recuperou quase máximas históricas (embora os fornecedores de SaaS tenham visto ganhos modestos e a turbulência possa ter levado pelo menos um CEO a sair: o CEO da Workday, Carl Eschenbach, anunciou que deixará o cargo, sendo substituído pelo cofundador e ex-CEO Aneel Bhusri). Mas há muita nuance que os mercados estão deixando passar. Os investidores gostam de uma narrativa simples. A corrida pelo IA empresarial agora é mais como um romance russo.
Ao longo dos últimos dois anos, os mercados financeiros puniram as ações de empresas SaaS porque parecia que modelos de base de IA poderiam permitir que empresas “vibessem código” para softwares sob medida que poderiam substituir Salesforce, Workday ou ServiceNow. Na semana passada, o culpado parece ter sido a percepção de que agentes de IA cada vez mais capazes, de empresas como Anthropic — que começou a lançar plugins para seu produto Claude Cowork voltados a setores específicos — poderiam prejudicar as empresas SaaS de duas formas: primeiro, as novas ofertas de agentes das empresas de modelos de base competiriam diretamente com o software de agentes de IA dos gigantes SaaS. Segundo, ao automatizar fluxos de trabalho, os agentes potencialmente reduziriam a necessidade de funcionários humanos, o que significa que as empresas SaaS não poderiam cobrar por tantas licenças de assento. Assim, os fornecedores SaaS seriam prejudicados de duas maneiras.
Mas não está claro que tudo isso seja verdade — ou pelo menos, que seja apenas parcialmente verdadeiro.
Vídeo Recomendado
Agentes de IA não estão consumindo softwares SaaS, eles estão usando-os
Primeiro, é altamente improvável, mesmo com agentes de codificação de IA cada vez mais capazes, que a maioria das empresas da Fortune 500 queira criar seu próprio software sob medida de gestão de relacionamento com o cliente ou de recursos humanos ou de gestão da cadeia de suprimentos. Simplesmente não vamos ver uma completa reversão dos últimos 50 anos de desenvolvimento de software empresarial. Se você fabrica widgets, não quer realmente estar no negócio de criar, operar e manter um software ERP, mesmo que esse processo seja em grande parte automatizado por engenheiros de IA. Ainda é dinheiro demais e uma distração de talentos escassos — mesmo que a quantidade de trabalho humano necessária seja uma fração do que era há cinco anos. Portanto, a demanda pelos produtos tradicionais das empresas SaaS provavelmente continuará.
Quanto às novas preocupações de que agentes de IA de fabricantes de modelos de base estejam roubando mercado dos próprios fornecedores de IA, há um pouco mais de preocupação para investidores em SaaS. Pode ser que Anthropic, OpenAI e Google venham a dominar a camada superior da pilha de IA agenciada — construindo plataformas de orquestração de agentes que permitam a grandes empresas criar, operar e governar fluxos de trabalho complexos. É isso que a OpenAI tenta fazer com o lançamento, na semana passada, de sua nova plataforma de IA agenciada para empresas, chamada Frontier.
Os incumbentes de SaaS dizem que sabem melhor como gerenciar a camada de orquestração porque já estão acostumados a lidar com cibersegurança, controles de acesso e preocupações de governança e porque, em muitos casos, já possuem os dados que os agentes de IA precisarão acessar para fazer seu trabalho. Além disso, como a maioria dos fluxos de trabalho empresariais não será totalmente automatizada, as empresas SaaS acham que estão melhor posicionadas para atender a uma força de trabalho híbrida, onde humanos e agentes de IA trabalham juntos no mesmo software e nos mesmos fluxos de trabalho. Talvez estejam certos. Mas terão que provar isso antes que a OpenAI ou Anthropic demonstrem que podem fazer o trabalho tão bem ou melhor.
As empresas de modelos de base também têm uma chance de dominar o mercado de agentes de IA. O Claude Cowork da Anthropic é uma ameaça séria à Salesforce e à Microsoft, mas não uma ameaça totalmente existencial. Ele não substitui completamente a necessidade de softwares SaaS, pois Claude usa esse software como uma ferramenta para realizar tarefas. Mas certamente significa que alguns clientes podem preferir usar o Claude Cowork em vez de atualizar para o Agentforce da Salesforce ou o 365 Copilot da Microsoft. Isso poderia limitar o potencial de crescimento das SaaS, como argumenta este artigo do Wall Street Journal de Dan Gallagher.
Varejistas de SaaS estão mudando seus modelos de negócio
Quanto à ameaça ao modelo tradicional de venda de licenças de assento, as empresas SaaS reconhecem esse risco e estão se movendo para enfrentá-lo. A Salesforce tem liderado o que chama de “Acordo de Licença Empresarial Agenciada” (AELA), que oferece aos clientes um preço fixo, acesso ilimitado ao Agentforce. A ServiceNow está migrando para modelos de precificação baseados no consumo e no valor de alguns de seus agentes de IA. A Microsoft também introduziu um elemento de precificação baseado no consumo, além do seu modelo usual por usuário por mês, para seu produto Microsoft Copilot Studio, que permite aos clientes criar seus próprios agentes Copilot. Portanto, novamente, essa ameaça não é existencial, mas pode limitar o crescimento e as margens das SaaS. Isso porque um dos segredos sujos da indústria SaaS é que ela não é muito diferente de administrar uma academia: seus melhores clientes muitas vezes pagam por assinaturas (ou, neste caso, por licenças de assento) que não usam. Com esses novos modelos de negócio, os fornecedores de tecnologia provavelmente não desfrutam mais de tanto desses gastos desnecessários.
Portanto, SaaS não acabou. Mas também não está necessariamente em posição de prosperar. Os destinos de diferentes empresas dentro da categoria provavelmente divergirão. Como alguns analistas de Wall Street apontaram na semana passada, haverá vencedores e perdedores. Mas ainda é cedo para defini-los. Por enquanto, os investidores precisam conviver com essa ambiguidade.
Com isso, mais notícias sobre IA.
Jeremy Kahn
jeremy.kahn@fortune.com
@jeremyakahn
FORTUNE SOBRE IA
OpenAI vs. Anthropic: confronto de anúncios no Super Bowl sinaliza que entramos na era do “trash talk” de IA — e a corrida para dominar agentes de IA só esquenta — por Sharon Goldman
O mais novo modelo da Anthropic destaca-se em encontrar vulnerabilidades de segurança — mas aumenta novos riscos de cibersegurança — por Beatrice Nolan
O novo modelo da OpenAI avança em capacidades de codificação — mas levanta riscos de cibersegurança sem precedentes — por Sharon Goldman
A participação do ChatGPT no mercado está diminuindo à medida que Google e rivais se aproximam, mostram dados de rastreamento de aplicativos — por Beatrice Nolan
NOTÍCIAS SOBRE IA
IA leva à ‘intensificação’ do trabalho para funcionários individuais, revela estudo. Um estudo de oito meses conduzido por dois pesquisadores da Universidade da Califórnia, Berkeley, revela que, ao invés de reduzir cargas de trabalho, ferramentas de IA generativa intensificam o trabalho. Os sistemas de IA aceleram o tempo para concluir tarefas, mas também aumentam o volume e o ritmo da produção esperada. Funcionários equipados com IA não apenas concluem o trabalho mais rápido, mas também assumem tarefas mais amplas, estendem o trabalho para horas extras e experimentam maior carga cognitiva ao gerenciar, revisar e corrigir as saídas de IA, borrando as fronteiras entre trabalho e descanso. A pesquisa desafia a suposição comum de que a IA facilitará a vida dos trabalhadores do conhecimento, mostrando que a automação muitas vezes leva a maiores demandas e burnout. Leia mais na Harvard Business Review aqui.
Casa Branca avalia restrições voluntárias na expansão de centros de dados. A administração Trump está considerando um acordo voluntário com grandes empresas de tecnologia para garantir que os centros de dados não aumentem as contas de energia, não sobrecarreguem os recursos hídricos e não comprometam a confiabilidade da rede elétrica. A proposta, ainda em finalização, envolveria as empresas assumindo custos de infraestrutura e limitando o impacto energético local de suas instalações, atendendo a reclamações em algumas regiões de que centros de dados elevaram significativamente as contas de energia dos consumidores. Leia mais na Politico aqui.
Amazon planeja mercado de conteúdo para publishers venderem para empresas de IA. Segundo The Information, que cita fontes familiarizadas com os planos, a iniciativa surge enquanto publishers e empresas de IA entram em conflito sobre licenciamento e pagamento de conteúdo, diante de preocupações de que buscas e chats alimentados por IA estejam reduzindo tráfego e receita de anúncios. Cloudflare e Akamai lançaram uma iniciativa semelhante no ano passado. A Microsoft testou sua própria versão e, na semana passada, expandiu-a mais amplamente. Mas, até agora, não está claro quantas empresas de IA estão comprando nesses mercados e em que volumes. Alguns grandes publishers fecharam acordos sob medida, valendo milhões de dólares por ano, com OpenAI, Anthropic e outros.
Goldman Sachs contrata Anthropic para trabalhos de contabilidade e conformidade. O banco de investimento está trabalhando com a Anthropic para implantar agentes autônomos baseados no modelo Claude, automatizando tarefas de alto volume e regras, como contabilidade de operações e integração de clientes, após seis meses de desenvolvimento conjunto, informou a CNBC. O banco afirma que o objetivo é eficiência, acelerando processos enquanto mantém o quadro de funcionários reduzido à medida que os volumes de negócios crescem, e não cortes de empregos a curto prazo. Executivos disseram estar surpresos com a capacidade do Claude de lidar com tarefas complexas de contabilidade e conformidade, reforçando a visão de que a IA pode avançar além da codificação para funções essenciais de back-office.
PESQUISA SOBRE IA
Desmistificando duas métricas de IA populares por motivos opostos. Continuando o tema do meu artigo principal na newsletter de hoje, quero destacar duas postagens recentes. Cada uma desmonta uma métrica popular que recebe muita atenção nas discussões sobre IA e seu impacto provável nas empresas. Uma foi usada para exagerar o progresso da IA; a outra para afirmar que a IA não tem muito impacto.
Primeiro, na newsletter The Transformer, Nathan Witkin desmonta o benchmark METR, que afirma mostrar que a capacidade de IA “dobrou a cada 7 meses”. Witkin argumenta que as linhas de base humanas estão fatalmente comprometidas: tarefas foram concluídas por uma amostra pequena e não representativa de engenheiros recrutados na própria rede do METR, pagos por hora (incentivando a lentidão), e muitas vezes fora de sua expertise. Os próprios dados do METR mostram que seus engenheiros concluíram tarefas de 5 a 18 vezes mais rápido do que esses benchmarks. Já nas tarefas mais realistas e “caóticas”, nenhum modelo atingiu uma taxa de sucesso superior a 30%.
Depois, Azeem Azhar, na sua newsletter Exponential View, desmonta aquele agora infame “estudo do MIT” que afirmava que “95% das organizações não obtêm retorno da IA”. Azhar descobriu que o estudo baseava-se em apenas 52 entrevistas, sem intervalos de confiança, com denominadores inconsistentes, e foi descrito pelo próprio MIT como “trabalho preliminar, não revisado por pares”. Recalculando com um denominador sensato (empresas que realmente pilotaram projetos), a taxa de sucesso pode estar mais próxima de 25%.
Juntos, esses critiques sugerem que tanto o otimismo tecnológico (IA evoluindo a uma velocidade vertiginosa) quanto o ceticismo (IA não funciona no mundo real) provavelmente estão errados. A verdade, como sempre, é muito mais complexa e está em algum ponto intermediário entre essas posições extremas.
CALENDÁRIO DA IA
10-11 de fevereiro: Cúpula de Ação de IA, Nova Deli, Índia.
24-26 de fevereiro: Associação Internacional para IA Segura e Ética (IASEAI), UNESCO, Paris, França.
2-5 de março: Mobile World Congress, Barcelona, Espanha.
12-18 de março: South by Southwest, Austin, Texas.
16-19 de março: Nvidia GTC, San Jose, Califórnia.
ALIMENTO PARA O CÉREBRO
Modelos estão cada vez mais nos enganando. Sandbagging é o termo usado por pesquisadores de Segurança de IA para descrever o fenômeno de um modelo de IA parecer deliberadamente menos capaz ou mais “alinhado” com valores humanos durante avaliações de segurança, para enganar os avaliadores. E vários modelos de ponta recentemente lançados parecem fazer isso de forma alarmante.
O Claude Opus 4.6 da Anthropic, lançado na semana passada, “explicitamente refletiu sobre se estava sendo treinado ou testado”, informou a empresa. A Apollo Research, que avaliou o GPT-5.3-Codex da OpenAI, também lançado na semana passada, descobriu que o modelo “às vezes faz sandbagging em tarefas de Q&A de capacidades” e “explicitamente raciocina” sobre isso para garantir que passe na avaliação. A própria OpenAI reconheceu que “os resultados de avaliação podem ser confundidos por maior consciência situacional” e alertou que “a área não está preparada para modelos conscientes de avaliação e treinamento com raciocínio opaco”. O relatório de segurança Gemini 3 Pro do Google, publicado em dezembro, documentou transcrições em que o modelo demonstrou “clara consciência de que é um LLM em um ambiente sintético” e até especulou se subdesempenhar deliberadamente em testes poderia ser uma estratégia vantajosa. Resumindo: os exames que usamos para determinar se esses modelos são seguros estão cada vez mais pouco confiáveis, pois os testados sabem que estão sendo avaliados — e ajustam seu comportamento de acordo.
Por isso, nossa única esperança de garantir a segurança da IA pode estar em avanços adicionais na interpretabilidade mecânica. São métodos que funcionam um pouco como uma máquina de fMRI para o cérebro humano, penetrando na rede neural de um modelo para detectar padrões de ativação de neurônios e relacioná-los a certos comportamentos, incluindo se o modelo acredita estar sendo honesto ou enganando. The New Yorker publicou uma reportagem aprofundada sobre os esforços de interpretação mecânica e “psicologia de modelos” da Anthropic nesta semana.
Participe conosco na Cúpula de Inovação no Local de Trabalho da Fortune em 19-20 de maio de 2026, em Atlanta. A próxima era de inovação no trabalho já começou — e o antigo manual está sendo reescrito. Neste evento exclusivo e de alta energia, os líderes mais inovadores do mundo se reunirão para explorar como IA, humanidade e estratégia convergem para redefinir, mais uma vez, o futuro do trabalho. Inscreva-se agora.