Bem-vindo ao Eye on AI, com a repórter de IA Sharon Goldman. Nesta edição: O lado selvagem do OpenClaw… A nova super PAC de 20 milhões de dólares da Anthropic contraria a OpenAI… A OpenAI lança seu primeiro modelo projetado para uma saída super rápida… A Anthropic cobrirá aumentos no preço da eletricidade de seus data centers de IA… A Isomorphic Labs afirma ter desbloqueado uma nova fronteira biológica além do AlphaFold.
Vídeo Recomendado
OpenClaw passou as últimas semanas mostrando o quão imprudentes podem ser os agentes de IA — e atraindo um público dedicado nesse processo.
O agente autônomo de inteligência artificial de código aberto e gratuito, desenvolvido por Peter Steinberger e originalmente conhecido como ClawdBot, pega os chatbots que conhecemos e amamos — como ChatGPT e Claude — e lhes dá as ferramentas e autonomia para interagir diretamente com seu computador e outros na internet. Pense em enviar e-mails, ler suas mensagens, comprar ingressos para um concerto, fazer reservas em restaurantes, e muito mais — presumivelmente enquanto você relaxa e come bombons.
O problema de dar ao OpenClaw um poder extraordinário para fazer coisas legais? Não surpreendentemente, é o fato de que isso também lhe dá muitas oportunidades de fazer coisas que não deveria, incluindo vazamento de dados, execução de comandos não intencionais ou ser silenciosamente sequestrado por atacantes, seja por malware ou por ataques chamados de “injeção de prompt” (quando alguém inclui instruções maliciosas para o agente de IA nos dados que ele pode usar).
A empolgação com o OpenClaw, dizem dois especialistas em cibersegurança com quem conversei nesta semana, é que ele não tem restrições, basicamente dando aos usuários um poder quase ilimitado para personalizá-lo como quiserem.
“A única regra é que ele não tem regras,” disse Ben Seri, cofundador e CTO da Zafran Security, que se especializa em gerenciamento de exposição a ameaças para empresas. “Essa faz parte do jogo.” Mas esse jogo pode se transformar em um pesadelo de segurança, já que regras e limites são essenciais para manter hackers e vazamentos à distância.
Preocupações clássicas de segurança
As preocupações de segurança são bastante clássicas, disse Colin Shea-Blymyer, pesquisador do Centro de Segurança e Tecnologia Emergente de Georgetown (CSET), onde trabalha no Projeto CyberAI. Configurações incorretas de permissões — quem ou o que pode fazer o quê — significam que humanos podem acidentalmente dar ao OpenClaw mais autoridade do que percebem, e atacantes podem aproveitar isso.
Por exemplo, no OpenClaw, grande parte do risco vem do que os desenvolvedores chamam de “habilidades”, que são basicamente aplicativos ou plugins que o agente de IA pode usar para tomar ações — como acessar arquivos, navegar na web ou executar comandos. A diferença é que, ao contrário de um aplicativo normal, o OpenClaw decide por conta própria quando usar essas habilidades e como encadeá-las, o que significa que um pequeno erro de permissão pode rapidamente se transformar em algo muito mais sério.
“Imagine usá-lo para acessar a página de reserva de um restaurante e ele também ter acesso ao seu calendário com todo tipo de informação pessoal,” disse ele. “Ou se for malware e encontrar a página errada e instalar um vírus?”
O OpenClaw possui páginas de segurança na sua documentação e tenta manter os usuários alertas e conscientes, disse Shea-Blymyer. Mas os problemas de segurança continuam sendo questões técnicas complexas que a maioria dos usuários comuns provavelmente não entenderá completamente. E, embora os desenvolvedores do OpenClaw possam trabalhar duro para corrigir vulnerabilidades, eles não podem resolver facilmente o problema fundamental de o agente poder agir por conta própria — o que é exatamente o que torna o sistema tão atraente.
“Essa é a tensão fundamental nesses tipos de sistemas,” disse ele. “Quanto mais acesso você der a eles, mais divertidos e interessantes eles serão — mas também mais perigosos.”
Empresas terão adoção lenta
Seri, da Zafran Security, admitiu que há pouca chance de acabar com a curiosidade dos usuários em relação a um sistema como o OpenClaw, embora tenha enfatizado que empresas terão muito mais dificuldade em adotar um sistema tão incontrolável e inseguro. Para o usuário comum, ele disse, deve-se experimentar como se estivesse trabalhando em um laboratório de química com material altamente explosivo.
Shea-Blymyer destacou que é algo positivo que o OpenClaw esteja acontecendo primeiro no nível de hobbyistas. “Vamos aprender muito sobre o ecossistema antes que alguém tente usá-lo em nível empresarial,” disse ele. “Sistemas de IA podem falhar de maneiras que nem conseguimos imaginar,” explicou. “[OpenClaw] pode nos dar muitas informações sobre por que diferentes LLMs se comportam do jeito que se comportam e sobre novas preocupações de segurança.”
Mas, enquanto o OpenClaw pode ser hoje uma experiência de hobby, especialistas em segurança veem nele uma prévia dos tipos de sistemas autônomos que as empresas eventualmente sentirão pressão para implantar.
Por ora, a menos que alguém queira ser objeto de pesquisa de segurança, o usuário comum deve evitar o OpenClaw, disse Shea-Blymyer. Caso contrário, não se surpreenda se seu assistente de IA pessoal acabar em um território bastante hostil.
O CEO da Capgemini faz um alerta. Você pode estar pensando de forma errada sobre IA — por Kamal Ahmed
O líder de IA premiado com Nobel da Google vê uma ‘renascença’ à frente — após uma crise de 10 ou 15 anos — por Nick Lichtenberg
X-odus: Metade da equipe fundadora da xAI deixou a empresa de IA de Elon Musk, potencialmente complicando seus planos para uma oferta pública de ações da SpaceX — por Beatrice Nolan
OpenAI contesta alegação de órgão regulador de que violou nova lei de segurança de IA da Califórnia com o lançamento do último modelo — por Beatrice Nolan
NOTÍCIAS SOBRE IA
A nova super PAC de 20 milhões de dólares da Anthropic contraria a OpenAI. Segundo o New York Times, a Anthropic comprometeu 20 milhões de dólares para uma operação de super PAC destinada a apoiar candidatos que defendem uma maior segurança e regulação da IA, criando um confronto direto antes das eleições de meio de mandato. Os fundos serão canalizados através da organização sem fins lucrativos de dinheiro obscuro Public First Action e PACs aliados, em oposição ao Leading the Future, um super PAC apoiado principalmente pelo presidente e cofundador da OpenAI, Greg Brockman, e pela firma de venture capital Andreessen Horowitz. Embora a Anthropic não tenha nomeado diretamente a OpenAI, alertou que “recursos vastos” estão sendo utilizados para se opor aos esforços de segurança da IA, destacando uma divisão crescente na indústria de IA sobre o quão rigorosamente os modelos poderosos devem ser regulados — e sinalizando que a batalha pela governança da IA agora se desenrola não apenas em laboratórios e salas de reunião, mas também nas urnas.
Mustafa Suleyman planeja autonomia na IA enquanto a Microsoft afrouxa laços com a OpenAI. O Financial Times informou que a Microsoft está avançando em direção ao que seu chefe de IA, Mustafa Suleyman, chama de “verdadeira autossuficiência” em inteligência artificial, acelerando esforços para construir seus próprios modelos de fundação e reduzir a dependência de longo prazo da OpenAI, mesmo permanecendo um dos maiores apoiadores da startup. Em uma entrevista, Suleyman afirmou que essa mudança segue uma reestruturação na relação da Microsoft com a OpenAI em outubro passado, que manteve o acesso aos modelos mais avançados da OpenAI até 2032, mas também deu ao criador do ChatGPT mais liberdade para buscar novos investidores e parceiros — potencialmente transformando-o em um concorrente. A Microsoft está agora investindo pesadamente em computação de gigawatt, pipelines de dados e equipes de pesquisa de IA de elite, com planos de lançar seus próprios modelos internos ainda neste ano, focados em automatizar trabalhos de escritório e conquistar mais o mercado empresarial com o que Suleyman chama de “AGI de nível profissional.”
OpenAI lança seu primeiro modelo projetado para uma saída ultra rápida. A OpenAI lançou uma prévia de pesquisa do GPT-5.3-Codex-Spark, o primeiro produto tangível de sua parceria com a Cerebras, usando o hardware de IA de escala wafer do fabricante de chips para oferecer codificação em tempo real com latência ultrabaixa. O modelo menor, uma versão otimizada do GPT-5.3-Codex, prioriza velocidade em vez de capacidade máxima, gerando respostas até 15 vezes mais rápidas para que desenvolvedores possam fazer edições direcionadas, reformular lógica e iterar de forma interativa sem esperar por longas execuções. Inicialmente disponível como prévia de pesquisa para usuários do ChatGPT Pro e um pequeno grupo de parceiros de API, o lançamento sinaliza o foco crescente da OpenAI na velocidade de interação, à medida que agentes de IA assumem tarefas mais autônomas e de longa duração — com codificação em tempo real surgindo como um caso de teste inicial do que uma inferência mais rápida pode desbloquear.
A Anthropic cobrirá aumentos no preço da eletricidade de seus data centers de IA. Após anúncio semelhante da OpenAI no mês passado, a Anthropic anunciou ontem que, à medida que expande seus data centers de IA nos EUA, assumirá a responsabilidade por quaisquer aumentos nos custos de eletricidade que, de outra forma, seriam repassados aos consumidores, comprometendo-se a pagar por todos os custos de conexão e atualização da rede, colocar novas fontes de energia em operação para atender à demanda e trabalhar com utilities e especialistas para estimar e cobrir quaisquer efeitos de preço; também planeja investir em tecnologias de redução de consumo de energia e otimização da rede, apoiar comunidades locais ao redor de suas instalações e defender reformas políticas mais amplas para acelerar e reduzir os custos de desenvolvimento de infraestrutura energética, argumentando que construir infraestrutura de IA não deve onerar os consumidores comuns.
A Isomorphic Labs afirma ter desbloqueado uma nova fronteira biológica além do AlphaFold. A Isomorphic Labs, empresa de descoberta de medicamentos baseada na Alphabet e DeepMind, afirma que seu novo Motor de Design de Medicamentos da Isomorphic Labs representa um avanço significativo na medicina computacional ao combinar múltiplos modelos de IA em um motor unificado capaz de prever como moléculas biológicas interagem com uma precisão sem precedentes. Um post no blog afirmou que ele mais que dobrou o desempenho anterior em benchmarks importantes e superou métodos tradicionais baseados em física para tarefas como previsão de estruturas de proteínas e ligantes, além de estimativa de afinidade de ligação — capacidades que, segundo a empresa, podem acelerar dramaticamente o design e a otimização de novos candidatos a medicamentos. O sistema baseia-se no sucesso do AlphaFold 3, um modelo avançado de IA lançado em 2024 que prevê as estruturas 3D e interações de todas as moléculas da vida, incluindo proteínas, DNA e RNA. Mas a empresa diz que vai além, identificando bolsos de ligação novos, generalizando para estruturas fora de seus dados de treinamento e integrando essas previsões em uma plataforma escalável que visa fechar a lacuna entre biologia estrutural e descoberta de medicamentos no mundo real, potencialmente revolucionando a pesquisa farmacêutica ao enfrentar alvos difíceis e expandir para biologics complexos.
Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
OpenClaw é o mau rapaz dos agentes de IA. Aqui está o motivo pelo qual os especialistas em segurança dizem que deve ter cuidado
Bem-vindo ao Eye on AI, com a repórter de IA Sharon Goldman. Nesta edição: O lado selvagem do OpenClaw… A nova super PAC de 20 milhões de dólares da Anthropic contraria a OpenAI… A OpenAI lança seu primeiro modelo projetado para uma saída super rápida… A Anthropic cobrirá aumentos no preço da eletricidade de seus data centers de IA… A Isomorphic Labs afirma ter desbloqueado uma nova fronteira biológica além do AlphaFold.
Vídeo Recomendado
OpenClaw passou as últimas semanas mostrando o quão imprudentes podem ser os agentes de IA — e atraindo um público dedicado nesse processo.
O agente autônomo de inteligência artificial de código aberto e gratuito, desenvolvido por Peter Steinberger e originalmente conhecido como ClawdBot, pega os chatbots que conhecemos e amamos — como ChatGPT e Claude — e lhes dá as ferramentas e autonomia para interagir diretamente com seu computador e outros na internet. Pense em enviar e-mails, ler suas mensagens, comprar ingressos para um concerto, fazer reservas em restaurantes, e muito mais — presumivelmente enquanto você relaxa e come bombons.
O problema de dar ao OpenClaw um poder extraordinário para fazer coisas legais? Não surpreendentemente, é o fato de que isso também lhe dá muitas oportunidades de fazer coisas que não deveria, incluindo vazamento de dados, execução de comandos não intencionais ou ser silenciosamente sequestrado por atacantes, seja por malware ou por ataques chamados de “injeção de prompt” (quando alguém inclui instruções maliciosas para o agente de IA nos dados que ele pode usar).
A empolgação com o OpenClaw, dizem dois especialistas em cibersegurança com quem conversei nesta semana, é que ele não tem restrições, basicamente dando aos usuários um poder quase ilimitado para personalizá-lo como quiserem.
“A única regra é que ele não tem regras,” disse Ben Seri, cofundador e CTO da Zafran Security, que se especializa em gerenciamento de exposição a ameaças para empresas. “Essa faz parte do jogo.” Mas esse jogo pode se transformar em um pesadelo de segurança, já que regras e limites são essenciais para manter hackers e vazamentos à distância.
Preocupações clássicas de segurança
As preocupações de segurança são bastante clássicas, disse Colin Shea-Blymyer, pesquisador do Centro de Segurança e Tecnologia Emergente de Georgetown (CSET), onde trabalha no Projeto CyberAI. Configurações incorretas de permissões — quem ou o que pode fazer o quê — significam que humanos podem acidentalmente dar ao OpenClaw mais autoridade do que percebem, e atacantes podem aproveitar isso.
Por exemplo, no OpenClaw, grande parte do risco vem do que os desenvolvedores chamam de “habilidades”, que são basicamente aplicativos ou plugins que o agente de IA pode usar para tomar ações — como acessar arquivos, navegar na web ou executar comandos. A diferença é que, ao contrário de um aplicativo normal, o OpenClaw decide por conta própria quando usar essas habilidades e como encadeá-las, o que significa que um pequeno erro de permissão pode rapidamente se transformar em algo muito mais sério.
“Imagine usá-lo para acessar a página de reserva de um restaurante e ele também ter acesso ao seu calendário com todo tipo de informação pessoal,” disse ele. “Ou se for malware e encontrar a página errada e instalar um vírus?”
O OpenClaw possui páginas de segurança na sua documentação e tenta manter os usuários alertas e conscientes, disse Shea-Blymyer. Mas os problemas de segurança continuam sendo questões técnicas complexas que a maioria dos usuários comuns provavelmente não entenderá completamente. E, embora os desenvolvedores do OpenClaw possam trabalhar duro para corrigir vulnerabilidades, eles não podem resolver facilmente o problema fundamental de o agente poder agir por conta própria — o que é exatamente o que torna o sistema tão atraente.
“Essa é a tensão fundamental nesses tipos de sistemas,” disse ele. “Quanto mais acesso você der a eles, mais divertidos e interessantes eles serão — mas também mais perigosos.”
Empresas terão adoção lenta
Seri, da Zafran Security, admitiu que há pouca chance de acabar com a curiosidade dos usuários em relação a um sistema como o OpenClaw, embora tenha enfatizado que empresas terão muito mais dificuldade em adotar um sistema tão incontrolável e inseguro. Para o usuário comum, ele disse, deve-se experimentar como se estivesse trabalhando em um laboratório de química com material altamente explosivo.
Shea-Blymyer destacou que é algo positivo que o OpenClaw esteja acontecendo primeiro no nível de hobbyistas. “Vamos aprender muito sobre o ecossistema antes que alguém tente usá-lo em nível empresarial,” disse ele. “Sistemas de IA podem falhar de maneiras que nem conseguimos imaginar,” explicou. “[OpenClaw] pode nos dar muitas informações sobre por que diferentes LLMs se comportam do jeito que se comportam e sobre novas preocupações de segurança.”
Mas, enquanto o OpenClaw pode ser hoje uma experiência de hobby, especialistas em segurança veem nele uma prévia dos tipos de sistemas autônomos que as empresas eventualmente sentirão pressão para implantar.
Por ora, a menos que alguém queira ser objeto de pesquisa de segurança, o usuário comum deve evitar o OpenClaw, disse Shea-Blymyer. Caso contrário, não se surpreenda se seu assistente de IA pessoal acabar em um território bastante hostil.
Com isso, aqui estão mais notícias de IA.
Sharon Goldman
sharon.goldman@fortune.com
@sharongoldman
FORTUNE SOBRE IA
O CEO da Capgemini faz um alerta. Você pode estar pensando de forma errada sobre IA — por Kamal Ahmed
O líder de IA premiado com Nobel da Google vê uma ‘renascença’ à frente — após uma crise de 10 ou 15 anos — por Nick Lichtenberg
X-odus: Metade da equipe fundadora da xAI deixou a empresa de IA de Elon Musk, potencialmente complicando seus planos para uma oferta pública de ações da SpaceX — por Beatrice Nolan
OpenAI contesta alegação de órgão regulador de que violou nova lei de segurança de IA da Califórnia com o lançamento do último modelo — por Beatrice Nolan
NOTÍCIAS SOBRE IA
A nova super PAC de 20 milhões de dólares da Anthropic contraria a OpenAI. Segundo o New York Times, a Anthropic comprometeu 20 milhões de dólares para uma operação de super PAC destinada a apoiar candidatos que defendem uma maior segurança e regulação da IA, criando um confronto direto antes das eleições de meio de mandato. Os fundos serão canalizados através da organização sem fins lucrativos de dinheiro obscuro Public First Action e PACs aliados, em oposição ao Leading the Future, um super PAC apoiado principalmente pelo presidente e cofundador da OpenAI, Greg Brockman, e pela firma de venture capital Andreessen Horowitz. Embora a Anthropic não tenha nomeado diretamente a OpenAI, alertou que “recursos vastos” estão sendo utilizados para se opor aos esforços de segurança da IA, destacando uma divisão crescente na indústria de IA sobre o quão rigorosamente os modelos poderosos devem ser regulados — e sinalizando que a batalha pela governança da IA agora se desenrola não apenas em laboratórios e salas de reunião, mas também nas urnas.
Mustafa Suleyman planeja autonomia na IA enquanto a Microsoft afrouxa laços com a OpenAI. O Financial Times informou que a Microsoft está avançando em direção ao que seu chefe de IA, Mustafa Suleyman, chama de “verdadeira autossuficiência” em inteligência artificial, acelerando esforços para construir seus próprios modelos de fundação e reduzir a dependência de longo prazo da OpenAI, mesmo permanecendo um dos maiores apoiadores da startup. Em uma entrevista, Suleyman afirmou que essa mudança segue uma reestruturação na relação da Microsoft com a OpenAI em outubro passado, que manteve o acesso aos modelos mais avançados da OpenAI até 2032, mas também deu ao criador do ChatGPT mais liberdade para buscar novos investidores e parceiros — potencialmente transformando-o em um concorrente. A Microsoft está agora investindo pesadamente em computação de gigawatt, pipelines de dados e equipes de pesquisa de IA de elite, com planos de lançar seus próprios modelos internos ainda neste ano, focados em automatizar trabalhos de escritório e conquistar mais o mercado empresarial com o que Suleyman chama de “AGI de nível profissional.”
OpenAI lança seu primeiro modelo projetado para uma saída ultra rápida. A OpenAI lançou uma prévia de pesquisa do GPT-5.3-Codex-Spark, o primeiro produto tangível de sua parceria com a Cerebras, usando o hardware de IA de escala wafer do fabricante de chips para oferecer codificação em tempo real com latência ultrabaixa. O modelo menor, uma versão otimizada do GPT-5.3-Codex, prioriza velocidade em vez de capacidade máxima, gerando respostas até 15 vezes mais rápidas para que desenvolvedores possam fazer edições direcionadas, reformular lógica e iterar de forma interativa sem esperar por longas execuções. Inicialmente disponível como prévia de pesquisa para usuários do ChatGPT Pro e um pequeno grupo de parceiros de API, o lançamento sinaliza o foco crescente da OpenAI na velocidade de interação, à medida que agentes de IA assumem tarefas mais autônomas e de longa duração — com codificação em tempo real surgindo como um caso de teste inicial do que uma inferência mais rápida pode desbloquear.
A Anthropic cobrirá aumentos no preço da eletricidade de seus data centers de IA. Após anúncio semelhante da OpenAI no mês passado, a Anthropic anunciou ontem que, à medida que expande seus data centers de IA nos EUA, assumirá a responsabilidade por quaisquer aumentos nos custos de eletricidade que, de outra forma, seriam repassados aos consumidores, comprometendo-se a pagar por todos os custos de conexão e atualização da rede, colocar novas fontes de energia em operação para atender à demanda e trabalhar com utilities e especialistas para estimar e cobrir quaisquer efeitos de preço; também planeja investir em tecnologias de redução de consumo de energia e otimização da rede, apoiar comunidades locais ao redor de suas instalações e defender reformas políticas mais amplas para acelerar e reduzir os custos de desenvolvimento de infraestrutura energética, argumentando que construir infraestrutura de IA não deve onerar os consumidores comuns.
A Isomorphic Labs afirma ter desbloqueado uma nova fronteira biológica além do AlphaFold. A Isomorphic Labs, empresa de descoberta de medicamentos baseada na Alphabet e DeepMind, afirma que seu novo Motor de Design de Medicamentos da Isomorphic Labs representa um avanço significativo na medicina computacional ao combinar múltiplos modelos de IA em um motor unificado capaz de prever como moléculas biológicas interagem com uma precisão sem precedentes. Um post no blog afirmou que ele mais que dobrou o desempenho anterior em benchmarks importantes e superou métodos tradicionais baseados em física para tarefas como previsão de estruturas de proteínas e ligantes, além de estimativa de afinidade de ligação — capacidades que, segundo a empresa, podem acelerar dramaticamente o design e a otimização de novos candidatos a medicamentos. O sistema baseia-se no sucesso do AlphaFold 3, um modelo avançado de IA lançado em 2024 que prevê as estruturas 3D e interações de todas as moléculas da vida, incluindo proteínas, DNA e RNA. Mas a empresa diz que vai além, identificando bolsos de ligação novos, generalizando para estruturas fora de seus dados de treinamento e integrando essas previsões em uma plataforma escalável que visa fechar a lacuna entre biologia estrutural e descoberta de medicamentos no mundo real, potencialmente revolucionando a pesquisa farmacêutica ao enfrentar alvos difíceis e expandir para biologics complexos.