Investing.com - Si vous avez récemment suivi le marché boursier, un modèle est devenu difficile à ignorer : presque chaque secteur ressent désormais la menace apportée par l’intelligence artificielle. Cette perturbation a initialement commencé dans le domaine des logiciels, mais s’est rapidement étendue à d’autres industries — impactant les courtiers, les compagnies d’assurance, l’immobilier, le service client, l’éducation, et bien d’autres.
Au cours des dernières semaines, presque chaque jour de trading a été marqué par des ventes massives liées à la peur de l’automatisation par l’intelligence artificielle. Les investisseurs ne se demandent plus si le secteur sera affecté par l’IA, mais plutôt à quelle vitesse et à quelle profondeur cette influence se manifestera.
Au centre de cette anxiété se trouve Claude, un grand modèle de langage développé par la startup d’intelligence artificielle Anthropic. Claude est salué pour ses capacités de raisonnement et ses cycles d’amélioration rapides, et il est de plus en plus considéré non seulement comme un outil de productivité, mais aussi comme une menace concurrentielle directe pour l’ensemble du modèle commercial.
Cependant, alors que les capacités de Claude continuent de secouer le marché, un signal plus alarmant provient de l’intérieur d’Anthropic.
Cette semaine, le chercheur en doctorat de l’entreprise, Mrinank Sharma, a annoncé sa démission sur la plateforme X — et il ne l’a pas fait discrètement.
“Aujourd’hui est mon dernier jour chez Anthropic”, a écrit Sharma, accompagnant son message d’une évaluation inquiétante : “Le monde est en danger.”
Il est à noter que Sharma a prudentement précisé que l’intelligence artificielle elle-même n’est pas la seule menace. Au contraire, il a décrit ce qu’il appelle une “multiplicité de crises” — une série de menaces qui se déroulent simultanément et se chevauchent.
“L’intelligence artificielle, les armes biologiques et d’autres risques ne sont pas isolés”, explique Sharma. “Ils font partie d’une série de crises interconnectées qui se déroulent en ce moment.”
Selon lui, l’humanité approche d’un point d’équilibre dangereux — où la vitesse de développement technologique dépasse la capacité de la société à utiliser ces technologies de manière responsable.
“Il semble que nous approchons d’un point critique, où notre sagesse doit croître autant que notre capacité à influencer le monde”, écrit Sharma. “Sinon, nous en subirons les conséquences.”
Ce qui est peut-être le plus frappant, c’est sa réflexion sur les défis internes liés au travail à la pointe du développement de l’intelligence artificielle. Bien qu’Anthropic mette en avant la sécurité et l’alignement, Sharma indique avoir été témoin à plusieurs reprises des difficultés à garantir que les valeurs guident réellement la prise de décision, tant au niveau individuel qu’organisationnel.
“Tout au long de mon temps ici, j’ai vu à quel point il est difficile de faire en sorte que nos valeurs gouvernent réellement nos actions”, écrit-il. “Je l’ai vu en moi-même, je l’ai vu dans l’organisation, où nous sommes constamment sous pression pour mettre de côté ce qui est le plus important — et cela dans la société en général aussi.”
Le départ de Sharma intervient à un moment où la confiance dans la gouvernance de l’IA est déjà fragile. Les gouvernements du monde entier se disputent la régulation de systèmes qu’ils connaissent peu, les entreprises déploient des modèles de plus en plus puissants, et les marchés financiers tentent d’évaluer cette disruption rapide.
Pour les investisseurs, Claude représente l’efficacité, l’automatisation et l’augmentation des marges bénéficiaires — mais l’avertissement de Sharma souligne une inquiétude plus profonde : la même force qui pousse à une innovation explosive pourrait aussi éroder les garde-fous destinés à la contrôler.
Alors que l’intelligence artificielle continue de transformer les industries et de bouleverser les marchés, le départ de Sharma soulève une question inquiétante : si même les chercheurs internes sont aussi vigilants, sommes-nous tous en train d’agir trop vite, sans réaliser ce qui pourrait être laissé pour compte ?
Ce texte a été traduit avec l’aide de l’intelligence artificielle. Pour plus d’informations, veuillez consulter nos conditions d’utilisation.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
Claude perturbe le marché boursier, un chercheur d'Anthropic avertit "Le monde est en danger"
Investing.com - Si vous avez récemment suivi le marché boursier, un modèle est devenu difficile à ignorer : presque chaque secteur ressent désormais la menace apportée par l’intelligence artificielle. Cette perturbation a initialement commencé dans le domaine des logiciels, mais s’est rapidement étendue à d’autres industries — impactant les courtiers, les compagnies d’assurance, l’immobilier, le service client, l’éducation, et bien d’autres.
Au cours des dernières semaines, presque chaque jour de trading a été marqué par des ventes massives liées à la peur de l’automatisation par l’intelligence artificielle. Les investisseurs ne se demandent plus si le secteur sera affecté par l’IA, mais plutôt à quelle vitesse et à quelle profondeur cette influence se manifestera.
Au centre de cette anxiété se trouve Claude, un grand modèle de langage développé par la startup d’intelligence artificielle Anthropic. Claude est salué pour ses capacités de raisonnement et ses cycles d’amélioration rapides, et il est de plus en plus considéré non seulement comme un outil de productivité, mais aussi comme une menace concurrentielle directe pour l’ensemble du modèle commercial.
Cependant, alors que les capacités de Claude continuent de secouer le marché, un signal plus alarmant provient de l’intérieur d’Anthropic.
Cette semaine, le chercheur en doctorat de l’entreprise, Mrinank Sharma, a annoncé sa démission sur la plateforme X — et il ne l’a pas fait discrètement.
“Aujourd’hui est mon dernier jour chez Anthropic”, a écrit Sharma, accompagnant son message d’une évaluation inquiétante : “Le monde est en danger.”
Il est à noter que Sharma a prudentement précisé que l’intelligence artificielle elle-même n’est pas la seule menace. Au contraire, il a décrit ce qu’il appelle une “multiplicité de crises” — une série de menaces qui se déroulent simultanément et se chevauchent.
“L’intelligence artificielle, les armes biologiques et d’autres risques ne sont pas isolés”, explique Sharma. “Ils font partie d’une série de crises interconnectées qui se déroulent en ce moment.”
Selon lui, l’humanité approche d’un point d’équilibre dangereux — où la vitesse de développement technologique dépasse la capacité de la société à utiliser ces technologies de manière responsable.
“Il semble que nous approchons d’un point critique, où notre sagesse doit croître autant que notre capacité à influencer le monde”, écrit Sharma. “Sinon, nous en subirons les conséquences.”
Ce qui est peut-être le plus frappant, c’est sa réflexion sur les défis internes liés au travail à la pointe du développement de l’intelligence artificielle. Bien qu’Anthropic mette en avant la sécurité et l’alignement, Sharma indique avoir été témoin à plusieurs reprises des difficultés à garantir que les valeurs guident réellement la prise de décision, tant au niveau individuel qu’organisationnel.
“Tout au long de mon temps ici, j’ai vu à quel point il est difficile de faire en sorte que nos valeurs gouvernent réellement nos actions”, écrit-il. “Je l’ai vu en moi-même, je l’ai vu dans l’organisation, où nous sommes constamment sous pression pour mettre de côté ce qui est le plus important — et cela dans la société en général aussi.”
Le départ de Sharma intervient à un moment où la confiance dans la gouvernance de l’IA est déjà fragile. Les gouvernements du monde entier se disputent la régulation de systèmes qu’ils connaissent peu, les entreprises déploient des modèles de plus en plus puissants, et les marchés financiers tentent d’évaluer cette disruption rapide.
Pour les investisseurs, Claude représente l’efficacité, l’automatisation et l’augmentation des marges bénéficiaires — mais l’avertissement de Sharma souligne une inquiétude plus profonde : la même force qui pousse à une innovation explosive pourrait aussi éroder les garde-fous destinés à la contrôler.
Alors que l’intelligence artificielle continue de transformer les industries et de bouleverser les marchés, le départ de Sharma soulève une question inquiétante : si même les chercheurs internes sont aussi vigilants, sommes-nous tous en train d’agir trop vite, sans réaliser ce qui pourrait être laissé pour compte ?
Ce texte a été traduit avec l’aide de l’intelligence artificielle. Pour plus d’informations, veuillez consulter nos conditions d’utilisation.