OpenClaw est le mauvais garçon des agents IA. Voici pourquoi les experts en sécurité disent que vous devriez vous méfier

Bienvenue à Eye on AI, avec la journaliste en intelligence artificielle Sharon Goldman. Dans cette édition : Le côté sauvage d’OpenClaw… Le nouveau super PAC de 20 millions de dollars d’Anthropic contre OpenAI… OpenAI publie son premier modèle conçu pour une sortie ultra-rapide… Anthropic prendra en charge l’augmentation des coûts d’électricité de ses centres de données IA… Isomorphic Labs affirme avoir débloqué une nouvelle frontière biologique au-delà d’AlphaFold.

Vidéo recommandée


OpenClaw a passé les dernières semaines à montrer à quel point les agents IA peuvent devenir imprudents — et à attirer un public dévoué dans le processus.

L’agent d’intelligence artificielle autonome, open source et gratuit, développé par Peter Steinberger et initialement connu sous le nom de ClawdBot, reprend les chatbots que nous connaissons et aimons — comme ChatGPT et Claude — et leur donne les outils et l’autonomie pour interagir directement avec votre ordinateur et d’autres à travers Internet. Pensez à envoyer des e-mails, lire vos messages, réserver des billets pour un concert, faire des réservations dans un restaurant, et bien plus — probablement pendant que vous vous détendez et mangez des bonbons.

Le problème avec le fait de donner à OpenClaw un pouvoir extraordinaire pour faire des choses cool ? Sans surprise, c’est le fait qu’il lui offre aussi de nombreuses opportunités de faire des choses qu’il ne devrait pas, comme divulguer des données, exécuter des commandes non prévues, ou être discrètement piraté par des attaquants, que ce soit via des logiciels malveillants ou par des attaques dites « injection de prompt » (où quelqu’un insère des instructions malveillantes dans les données que l’agent IA pourrait utiliser).

L’enthousiasme autour d’OpenClaw, disent deux experts en cybersécurité que j’ai consultés cette semaine, réside dans le fait qu’il n’a aucune restriction, donnant essentiellement aux utilisateurs un pouvoir largement sans limite pour le personnaliser à leur guise.

« La seule règle, c’est qu’il n’y a pas de règles, » a déclaré Ben Seri, cofondateur et CTO de Zafran Security, spécialisé dans la gestion des risques de menace pour les entreprises. « C’est ça le jeu. » Mais ce jeu peut se transformer en cauchemar de sécurité, puisque les règles et les limites sont au cœur de la prévention contre les hackers et les fuites.

Préoccupations classiques en matière de sécurité

Les préoccupations en matière de sécurité sont assez classiques, explique Colin Shea-Blymyer, chercheur au Centre pour la sécurité et la technologie émergente de Georgetown (CSET), où il travaille sur le projet CyberAI. Des erreurs de configuration des permissions — qui ou quoi est autorisé à faire quoi — signifient que les humains pourraient accidentellement donner à OpenClaw plus d’autorité qu’ils ne le pensent, et les attaquants peuvent en profiter.

Par exemple, dans OpenClaw, une grande partie du risque provient de ce que les développeurs appellent « compétences », qui sont essentiellement des applications ou des plugins que l’agent IA peut utiliser pour agir — comme accéder à des fichiers, naviguer sur le web ou exécuter des commandes. La différence avec une application normale, c’est qu’OpenClaw décide lui-même quand utiliser ces compétences et comment les enchaîner, ce qui peut rapidement transformer une petite erreur de permission en quelque chose de beaucoup plus grave.

« Imaginez l’utiliser pour accéder à la page de réservation d’un restaurant, tout en ayant aussi accès à votre calendrier contenant toutes sortes d’informations personnelles, » a-t-il dit. « Ou si c’est un logiciel malveillant qui trouve la mauvaise page et installe un virus ? »

OpenClaw dispose de pages de sécurité dans sa documentation et essaie de sensibiliser ses utilisateurs, a indiqué Shea-Blymyer. Mais les problèmes de sécurité restent des défis techniques complexes que la plupart des utilisateurs moyens ont peu de chances de comprendre pleinement. Et même si les développeurs d’OpenClaw travaillent dur pour corriger les vulnérabilités, ils ne peuvent pas facilement résoudre le problème fondamental que l’agent peut agir de façon autonome — ce qui rend le système si attrayant dès le départ.

« C’est la tension fondamentale de ces systèmes, » a-t-il dit. « Plus ils ont d’accès, plus ils seront amusants et intéressants — mais aussi plus dangereux. »

Les entreprises seront lentes à adopter

Seri de Zafran Security a admis qu’il est peu probable de pouvoir étouffer la curiosité des utilisateurs face à un système comme OpenClaw, mais il a souligné que les entreprises seront beaucoup plus lentes à adopter un tel système incontrôlable et peu sécurisé. Pour l’utilisateur moyen, il a dit, il faut expérimenter comme si l’on travaillait dans un laboratoire de chimie avec une matière hautement explosive.

Shea-Blymyer a souligné que c’est une bonne chose que OpenClaw se développe d’abord au niveau des amateurs. « Nous apprendrons beaucoup sur l’écosystème avant que quiconque ne l’essaye à l’échelle d’une entreprise, » a-t-il dit. « Les systèmes IA peuvent échouer de manières que nous ne pouvons même pas imaginer, » a-t-il expliqué. « [OpenClaw] pourrait nous donner beaucoup d’informations sur pourquoi différents LLM se comportent comme ils le font, et sur de nouvelles préoccupations en matière de sécurité. »

Mais si OpenClaw est aujourd’hui une expérience pour les amateurs, les experts en sécurité le voient comme un aperçu des types de systèmes autonomes que les entreprises finiront par se sentir obligées de déployer.

Pour l’instant, sauf si quelqu’un veut devenir sujet de recherche en sécurité, l’utilisateur moyen devrait éviter OpenClaw, a conseillé Shea-Blymyer. Sinon, ne soyez pas surpris si votre assistant IA personnel s’aventure dans des territoires très peu amicaux.

Et avec cela, voici plus d’actualités sur l’IA.

Sharon Goldman
sharon.goldman@fortune.com
@sharongoldman

FORTUNE SUR L’IA

Le PDG de Capgemini lance un avertissement. Vous pensez peut-être mal l’IA — par Kamal Ahmed

Le leader de l’IA de Nobel de Google voit un « renouveau » à l’horizon — après une période de 10 ou 15 ans de bouleversements — par Nick Lichtenberg

X-odus : La moitié de l’équipe fondatrice de xAI a quitté la société d’IA d’Elon Musk, compliquant potentiellement ses plans pour une introduction en bourse spectaculaire de SpaceX — par Beatrice Nolan

OpenAI conteste la déclaration d’un organisme de surveillance selon laquelle il aurait violé la nouvelle loi californienne sur la sécurité de l’IA avec la dernière version de son modèle — par Beatrice Nolan

ACTUALITÉS SUR L’IA

Le nouveau super PAC de 20 millions de dollars d’Anthropic contre OpenAI. Selon le New York Times, Anthropic a promis 20 millions de dollars à une opération de super PAC destinée à soutenir des candidats favorables à une régulation et une sécurité renforcées de l’IA, ce qui prépare un affrontement direct avant les élections de mi-mandat. Le financement passera par l’organisation à but non lucratif de financement occulte Public First Action et des PAC alliés, en opposition à Leading the Future, un super PAC principalement soutenu par le président et cofondateur d’OpenAI, Greg Brockman, et la société de capital-risque Andreessen Horowitz. Bien qu’Anthropic n’ait pas nommé directement OpenAI, il a averti que des « ressources considérables » sont déployées pour s’opposer aux efforts de sécurité de l’IA, soulignant un fossé croissant dans l’industrie de l’IA sur la réglementation des modèles puissants — et indiquant que la bataille pour la gouvernance de l’IA ne se joue plus seulement dans les laboratoires et les salles de réunion, mais aussi dans les urnes.

Mustafa Suleyman planifie une « autosuffisance » de l’IA alors que Microsoft relâche ses liens avec OpenAI. Le Financial Times a rapporté que Microsoft pousse vers ce que son responsable IA, Mustafa Suleyman, appelle une « véritable autosuffisance » en intelligence artificielle, accélérant ses efforts pour construire ses propres modèles de fondation et réduire sa dépendance à long terme à OpenAI, tout en restant l’un de ses plus grands investisseurs. Dans une interview, Suleyman a déclaré que ce changement fait suite à une restructuration de la relation entre Microsoft et OpenAI en octobre dernier, qui a maintenu l’accès aux modèles les plus avancés d’OpenAI jusqu’en 2032, tout en donnant à la société de ChatGPT plus de liberté pour rechercher de nouveaux investisseurs et partenaires — ce qui pourrait la transformer en concurrente. Microsoft investit désormais massivement dans des infrastructures de calcul à l’échelle gigawatt, des pipelines de données, et des équipes de recherche IA d’élite, avec des plans pour lancer ses propres modèles internes plus tard cette année, visant à automatiser le travail de bureau et à capter une plus grande part du marché des entreprises avec ce que Suleyman appelle une « IA professionnelle de grade supérieur. »

OpenAI publie son premier modèle conçu pour une sortie ultra-rapide. OpenAI a publié un aperçu de recherche de GPT-5.3-Codex-Spark, le premier produit tangible de son partenariat avec Cerebras, utilisant le matériel IA à l’échelle de wafer du fabricant de puces pour offrir une programmation en temps réel à très faible latence. Ce modèle plus petit, une version simplifiée de GPT-5.3-Codex, est optimisé pour la vitesse plutôt que pour la capacité maximale, générant des réponses jusqu’à 15 fois plus rapides afin que les développeurs puissent faire des modifications ciblées, remodeler la logique et itérer de façon interactive sans attendre de longues exécutions. Initialement disponible en tant qu’aperçu de recherche pour les utilisateurs de ChatGPT Pro et un petit groupe de partenaires API, cette sortie marque l’accent croissant d’OpenAI sur la rapidité d’interaction, alors que les agents IA prennent en charge des tâches plus autonomes et longues — avec la programmation en temps réel comme premier cas d’essai pour ce que peut libérer une inference plus rapide.

Anthropic prendra en charge l’augmentation des coûts d’électricité de ses centres de données IA. Après une annonce similaire d’OpenAI le mois dernier, Anthropic a annoncé hier qu’en étendant ses centres de données IA aux États-Unis, elle assumera toute augmentation des coûts d’électricité qui pourrait autrement être répercutée sur les consommateurs, s’engageant à payer tous les coûts de connexion et de mise à niveau du réseau, à mettre en service de nouvelles sources d’énergie pour répondre à la demande, et à collaborer avec les utilities et experts pour estimer et couvrir tout effet sur les prix ; elle prévoit également d’investir dans des technologies de réduction de la consommation d’énergie et d’optimisation du réseau, de soutenir les communautés locales autour de ses installations, et de plaider pour des réformes politiques plus larges afin d’accélérer et de réduire le coût du développement des infrastructures énergétiques, arguant que la construction d’infrastructures IA ne devrait pas peser sur les consommateurs quotidiens.

Isomorphic Labs affirme avoir débloqué une nouvelle frontière biologique au-delà d’AlphaFold. Isomorphic Labs, la société de découverte de médicaments IA affiliée à Alphabet et DeepMind, affirme que son nouveau moteur de conception de médicaments, Isomorphic Labs Drug Design Engine, représente une avancée significative en médecine computationnelle en combinant plusieurs modèles IA dans un moteur unifié capable de prédire avec une précision sans précédent l’interaction des molécules biologiques. Un article de blog indique qu’il a plus que doublé ses performances sur des benchmarks clés et surpassé les méthodes traditionnelles basées sur la physique pour des tâches telles que la prédiction de structures protéine-ligand et l’estimation de l’affinité de liaison — des capacités que l’entreprise estime pouvoir accélérer considérablement la conception et l’optimisation de nouveaux candidats-médicaments. Le système s’appuie sur le succès d’AlphaFold 3, un modèle IA avancé publié en 2024, qui prédit les structures 3D et les interactions de toutes les molécules de la vie, y compris protéines, ADN et ARN. Mais l’entreprise affirme aller plus loin en identifiant de nouvelles poches de liaison, en généralisant à des structures hors de ses données d’entraînement, et en intégrant ces prédictions dans une plateforme évolutive visant à combler le fossé entre biologie structurale et découverte de médicaments en conditions réelles, ce qui pourrait révolutionner la recherche pharmaceutique face à des cibles difficiles et s’étendre aux biologiques complexes.

Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
0/400
Aucun commentaire
  • Épingler

Trader les cryptos partout et à tout moment
qrCode
Scan pour télécharger Gate app
Communauté
Français (Afrique)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)