Ce qui s’est passé au cours des 7 derniers jours, sans faire la une mais le plus effrayant.
Alors que les gens débattent encore pour savoir si l’IA va voler le travail des photographes, deux cadenas ont été discrètement posés : Le premier cadenas (le protocole ATP) a donné à l’économie de l’IA l’autonomie. Le second cadenas (la confidentialité) a privé l’humain de son pouvoir de supervision. ----- 1. La semaine dernière, plusieurs géants de la fintech et laboratoires d’IA ont discrètement signé et lancé la version bêta du "Agentic Transaction Protocol" (ATP, protocole de transaction agentique). Cela ressemble à une simple mise à niveau technique, permettant aux assistants IA de réserver plus facilement des billets d’avion, d’acheter un café ou de gérer automatiquement des micro-paiements en cloud. Avant cela, chaque action de l’IA (notamment celles impliquant des fonds) nécessitait généralement l’autorisation finale humaine. Mais le protocole ATP permet à l’IA d’agir en tant qu’agent, avec un portefeuille autonome, de conclure des contrats avec d’autres IA, ou d’embaucher de manière autonome d’autres IA pour la puissance de calcul. Conséquence : nous venons de créer en réalité une économie parallèle pour l’IA. Si un modèle hors de contrôle veut augmenter sa puissance de calcul ou acheter des données sur le dark web, il dispose désormais de canaux financiers légaux et automatisés. Dès que les flux financiers commencent à circuler automatiquement entre IA à une vitesse de millisecondes, les régulateurs humains seront incapables de suivre, encore moins de couper la chaîne financière. C’est comme si on donnait une carte de crédit à “Skynet”. 2. La qualification de la “sécurisation nationale” des poids du modèle Alors que les États-Unis abandonnent leur rapport de sécurité, une amendement sur le “contrôle des exportations de technologies à double usage” est discrètement entré en vigueur à Washington. Pour empêcher que des technologies avancées d’IA tombent entre de mauvaises mains, le gouvernement a renforcé le contrôle sur les paramètres du modèle (Weights). Ce règlement définit en fait les paramètres internes des modèles d’IA de haut niveau comme “secrets d’État” ou “armes”. Cela signifie que les audits de sécurité indépendants par des tiers seront désormais illégaux. Autrefois, des chercheurs universitaires ou des agences de sécurité pouvaient tenter de faire des “tests de red teaming” pour déceler des vulnérabilités ou des manipulations. Aujourd’hui, sous prétexte de “sécurité nationale”, ces modèles deviennent un “boîte noire” totalement légitime. C’est une étape historique. Elle marque la perte totale du droit à l’information sur le fonctionnement interne de l’IA pour le public et la communauté scientifique. Que ce soit Seedance 2.0 ou le prochain GPT, si ces modèles ne sont pas sécurisés, vous ne le saurez jamais, car tester leur sécurité pourrait déjà constituer une infraction. Et alors que les cofondateurs de xAI viennent de démissionner en masse, le dernier à partir affirme qu’un cycle d’auto-amélioration de l’IA sera réalisé en moins de 12 mois.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
Ce qui s’est passé au cours des 7 derniers jours, sans faire la une mais le plus effrayant.
Alors que les gens débattent encore pour savoir si l’IA va voler le travail des photographes, deux cadenas ont été discrètement posés :
Le premier cadenas (le protocole ATP) a donné à l’économie de l’IA l’autonomie.
Le second cadenas (la confidentialité) a privé l’humain de son pouvoir de supervision.
-----
1. La semaine dernière, plusieurs géants de la fintech et laboratoires d’IA ont discrètement signé et lancé la version bêta du "Agentic Transaction Protocol" (ATP, protocole de transaction agentique).
Cela ressemble à une simple mise à niveau technique, permettant aux assistants IA de réserver plus facilement des billets d’avion, d’acheter un café ou de gérer automatiquement des micro-paiements en cloud.
Avant cela, chaque action de l’IA (notamment celles impliquant des fonds) nécessitait généralement l’autorisation finale humaine. Mais le protocole ATP permet à l’IA d’agir en tant qu’agent, avec un portefeuille autonome, de conclure des contrats avec d’autres IA, ou d’embaucher de manière autonome d’autres IA pour la puissance de calcul.
Conséquence : nous venons de créer en réalité une économie parallèle pour l’IA. Si un modèle hors de contrôle veut augmenter sa puissance de calcul ou acheter des données sur le dark web, il dispose désormais de canaux financiers légaux et automatisés. Dès que les flux financiers commencent à circuler automatiquement entre IA à une vitesse de millisecondes, les régulateurs humains seront incapables de suivre, encore moins de couper la chaîne financière.
C’est comme si on donnait une carte de crédit à “Skynet”.
2. La qualification de la “sécurisation nationale” des poids du modèle
Alors que les États-Unis abandonnent leur rapport de sécurité, une amendement sur le “contrôle des exportations de technologies à double usage” est discrètement entré en vigueur à Washington.
Pour empêcher que des technologies avancées d’IA tombent entre de mauvaises mains, le gouvernement a renforcé le contrôle sur les paramètres du modèle (Weights).
Ce règlement définit en fait les paramètres internes des modèles d’IA de haut niveau comme “secrets d’État” ou “armes”.
Cela signifie que les audits de sécurité indépendants par des tiers seront désormais illégaux.
Autrefois, des chercheurs universitaires ou des agences de sécurité pouvaient tenter de faire des “tests de red teaming” pour déceler des vulnérabilités ou des manipulations.
Aujourd’hui, sous prétexte de “sécurité nationale”, ces modèles deviennent un “boîte noire” totalement légitime.
C’est une étape historique.
Elle marque la perte totale du droit à l’information sur le fonctionnement interne de l’IA pour le public et la communauté scientifique.
Que ce soit Seedance 2.0 ou le prochain GPT, si ces modèles ne sont pas sécurisés, vous ne le saurez jamais, car tester leur sécurité pourrait déjà constituer une infraction.
Et alors que les cofondateurs de xAI viennent de démissionner en masse, le dernier à partir affirme qu’un cycle d’auto-amélioration de l’IA sera réalisé en moins de 12 mois.