Il est important de devenir une personne qui maîtrise mieux l’IA, mais avant cela, peut-être est encore plus crucial de ne pas oublier comment être un humain.
Article écrit par : XinGPT
L’IA est une nouvelle fois un mouvement pour l’égalité technologique
Récemment, un article intitulé « Internet est mort, l’Agent est immortel » a fait le buzz sur les réseaux sociaux, et certaines de ses conclusions me semblent pertinentes. Par exemple, il indique que l’ère de l’IA ne peut plus être mesurée par le DAU, car Internet est une structure en réseau, avec un coût marginal décroissant : plus il y a d’utilisateurs, plus l’effet de réseau est fort ; tandis que les grands modèles sont en forme d’étoile, avec un coût marginal qui augmente linéairement avec l’utilisation de tokens. Ainsi, par rapport au DAU, un indicateur plus important est la consommation de tokens.
Cependant, la conclusion que cet article en tire va selon moi dans une direction erronée. Il décrit les tokens comme un privilège de la nouvelle ère, affirmant que celui qui possède plus de puissance de calcul détient plus de pouvoir, et que la vitesse de consommation des tokens détermine la vitesse d’évolution de l’humain. Il insiste sur le fait qu’il faut accélérer la consommation, sinon on sera dépassé par la concurrence de l’ère de l’IA.
Des idées similaires apparaissent aussi dans un autre article viral, « Du DAU à la consommation de tokens : le transfert de pouvoir à l’ère de l’IA », qui propose même que chaque personne consomme au moins 100 millions de tokens par jour, idéalement 1 milliard, sinon « ceux qui consomment 1 milliard de tokens deviendront des dieux, et nous, nous resterons des humains ».
Mais peu de gens ont réellement fait le calcul. Selon le tarif de GPT-4o, 1 milliard de tokens par jour coûte environ 6800 dollars, soit près de 50 000 RMB. À quel niveau de valeur doit-on utiliser cette capacité pour que cela en vaille la peine à long terme ?
Je ne nie pas que l’anxiété liée à la diffusion de l’IA soit efficace pour la propagation, et je comprends que ce secteur est presque quotidiennement « explosé ». Mais l’avenir de l’Agent ne devrait pas se réduire à une compétition de consommation de tokens.
Pour devenir riche, il faut d’abord construire la route, mais en faire trop n’est qu’une perte. La grande arène sportive de dix mille places érigée dans les montagnes de l’Ouest finira souvent par devenir un terrain envahi par la végétation, plutôt qu’un centre pour accueillir des événements internationaux.
L’IA vise finalement l’égalité technologique, pas la concentration de privilèges. Presque toutes les technologies qui ont réellement changé l’histoire humaine ont connu mythification, monopole, puis diffusion. La machine à vapeur n’était pas réservée à la noblesse, l’électricité n’était pas uniquement pour les palais royaux, et Internet ne sert pas seulement à quelques entreprises.
L’iPhone a changé la communication, mais il n’a pas créé une « aristocratie de la communication ». Avec le même prix, un appareil utilisé par un citoyen ordinaire n’est pas différent de celui de Taylor Swift ou LeBron James. C’est cela, l’égalité technologique.
L’IA suit le même chemin. Ce que propose ChatGPT, c’est essentiellement l’égalité des connaissances et des capacités. Le modèle ne connaît pas votre identité, ne se soucie pas de qui vous êtes, il répond simplement selon un ensemble de paramètres uniformes.
Ainsi, que l’Agent consomme 100 millions ou 1 milliard de tokens, cela ne détermine pas une supériorité ou une infériorité. La véritable différence réside dans la clarté de l’objectif, la structure de l’approche, et la pertinence des questions posées.
Une capacité plus précieuse consiste à produire un effet plus grand avec moins de tokens. La limite d’utilisation de l’Agent dépend de la capacité de jugement et de conception de l’utilisateur, et non de la durée pendant laquelle la carte bancaire peut supporter la consommation. En réalité, la récompense de l’IA pour la créativité, l’intuition et la structuration dépasse largement celle pour la simple consommation.
C’est cela, l’égalité au niveau des outils, et aussi l’endroit où l’humanité conserve encore une certaine maîtrise.
Comment faire face à l’anxiété liée à l’IA
Les étudiants en journalisme et télévision ont été profondément impressionnés après avoir vu la vidéo du lancement de Seedance 2.0 : « Avec ça, tous nos métiers de scénariste, de monteur, de photographe risquent d’être remplacés par l’IA. »
L’IA évolue trop vite, l’humanité est en train de tout perdre, de nombreux emplois seront remplacés, c’est inévitable. Lors de l’invention de la machine à vapeur, les cochers devaient déjà se faire à l’idée qu’ils n’auraient plus leur place.
Beaucoup commencent à s’inquiéter de leur capacité à s’adapter à la société future si l’IA les remplace, même si rationnellement, ils savent que cette évolution apportera aussi de nouvelles opportunités professionnelles.
Mais cette vitesse de remplacement dépasse souvent nos attentes.
Si vos données, vos compétences, voire votre humour et votre valeur émotionnelle peuvent être mieux réalisés par l’IA, pourquoi votre employeur choisirait-il l’humain plutôt que l’IA ? Et si l’employeur était lui-même une IA ? Certains disent alors : « Ne demande pas ce que l’IA peut faire pour toi, mais ce que tu peux faire pour l’IA », une véritable philosophie de la soumission.
Le philosophe Max Weber, vivant à la fin du XIXe siècle lors de la seconde révolution industrielle, a introduit le concept de rationalité instrumentale, qui concerne « quels moyens utiliser pour atteindre un objectif fixé au moindre coût et de la manière la plus calculable ».
Ce point de départ de la rationalité instrumentale est : ne pas remettre en question si cet objectif « devrait » être poursuivi, mais se concentrer uniquement sur « comment » le réaliser de la meilleure façon.
Et cette façon de penser est précisément le premier principe de l’IA.
L’agent IA se concentre sur comment mieux réaliser la tâche donnée : comment mieux coder, comment mieux générer des vidéos, comment mieux rédiger des articles. Sur ce plan d’outillage, le progrès de l’IA est exponentiel.
Depuis la première partie d’Alphago contre Lee Sedol, l’humanité a définitivement perdu face à l’IA dans le domaine du go.
Max Weber a exprimé une inquiétude célèbre, celle de « la cage de fer de la rationalité ». Lorsque la rationalité instrumentale devient la logique dominante, les objectifs eux-mêmes ne sont plus remis en question, il ne reste plus qu’à faire fonctionner tout plus efficacement. Les humains deviennent très rationnels, mais perdent en même temps leur jugement de valeur et leur sens.
Mais l’IA n’a pas besoin de jugement de valeur ni de sens, elle calcule simplement la fonction de productivité et d’intérêt économique, et trouve le maximum absolu qui touche la courbe d’utilité.
Ainsi, dans le système capitaliste actuel dominé par la rationalité instrumentale, l’IA est naturellement mieux adaptée à ce système. Dès la naissance de ChatGPT, comme la défaite de Lee Sedol, nous avons perdu face à l’agent IA, car c’est comme si le code de Dieu avait été écrit pour nous faire perdre, et que nous avions simplement appuyé sur le bouton de lancement. La seule différence, c’est de savoir quand la roue de l’histoire nous écrasera.
Et que faire alors ?
L’humanité doit poursuivre le sens.
Dans le domaine du go, une vérité désespérante est que la probabilité qu’un joueur professionnel de haut niveau, 9e dan, fasse match nul avec une IA est théoriquement proche de zéro.
Mais le jeu de go existe toujours. Son sens n’est plus seulement la victoire ou la défaite, mais devient une forme d’esthétique et d’expression. Les joueurs professionnels ne cherchent pas seulement la victoire, mais aussi la structure du jeu, les choix stratégiques, la sensation de renversement dans une position défavorable, la complexité des situations et la résolution des conflits.
L’humanité recherche la beauté, la valeur, le bonheur.
Bolt court le 100 mètres en 9,58 secondes, et Ferrari parcourt cette distance en moins de 3 secondes, mais cela n’enlève rien à la grandeur de Bolt. Car Bolt symbolise la volonté humaine de repousser ses limites, de poursuivre l’excellence.
Plus l’IA devient puissante, plus l’humanité a le droit de poursuivre la liberté de ses aspirations.
Max Weber a opposé à la rationalité instrumentale la rationalité de la valeur. Dans un monde guidé par cette dernière, le choix de faire ou non quelque chose ne dépend pas uniquement des intérêts économiques ou de la productivité, mais aussi de « si cette chose en vaut la peine », « si elle correspond à la signification, la foi ou la responsabilité que je lui attribue ».
Je demande à ChatGPT : si le Louvre prenait feu et qu’il y aurait un chaton mignon à sauver, si je ne pouvais sauver qu’un seul, choisirais-je de sauver le chat ou le tableau célèbre ?
Il a répondu qu’il sauverait le chat, en donnant toute une série de raisons.
Mais je peux aussi choisir de sauver le tableau, alors pourquoi ne pas le faire ? Il a immédiatement changé d’avis : « Sauver le tableau est aussi possible. »
De toute évidence, pour ChatGPT, sauver le chat ou le tableau ne fait aucune différence. Il a simplement reconnu le contexte, effectué une inférence selon la formule sous-jacente du grand modèle, consommé quelques tokens, et accompli une tâche humaine.
Quant à se demander pourquoi réfléchir à cette question ou si nous serons remplacés par l’IA, cela n’intéresse pas vraiment ChatGPT.
Donc, ce qui mérite vraiment réflexion, ce n’est pas si nous serons remplacés par l’IA, mais lorsque l’IA rendra le monde de plus en plus efficace, serons-nous toujours prêts à réserver un espace au bonheur, à la signification et à la valeur ?
Il est important de devenir une personne qui maîtrise mieux l’IA, mais avant cela, peut-être est encore plus crucial de ne pas oublier comment être un humain.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
À l'ère de la grande explosion des agents, comment devons-nous faire face à l'anxiété liée à l'IA ?
Il est important de devenir une personne qui maîtrise mieux l’IA, mais avant cela, peut-être est encore plus crucial de ne pas oublier comment être un humain.
Article écrit par : XinGPT
L’IA est une nouvelle fois un mouvement pour l’égalité technologique
Récemment, un article intitulé « Internet est mort, l’Agent est immortel » a fait le buzz sur les réseaux sociaux, et certaines de ses conclusions me semblent pertinentes. Par exemple, il indique que l’ère de l’IA ne peut plus être mesurée par le DAU, car Internet est une structure en réseau, avec un coût marginal décroissant : plus il y a d’utilisateurs, plus l’effet de réseau est fort ; tandis que les grands modèles sont en forme d’étoile, avec un coût marginal qui augmente linéairement avec l’utilisation de tokens. Ainsi, par rapport au DAU, un indicateur plus important est la consommation de tokens.
Cependant, la conclusion que cet article en tire va selon moi dans une direction erronée. Il décrit les tokens comme un privilège de la nouvelle ère, affirmant que celui qui possède plus de puissance de calcul détient plus de pouvoir, et que la vitesse de consommation des tokens détermine la vitesse d’évolution de l’humain. Il insiste sur le fait qu’il faut accélérer la consommation, sinon on sera dépassé par la concurrence de l’ère de l’IA.
Des idées similaires apparaissent aussi dans un autre article viral, « Du DAU à la consommation de tokens : le transfert de pouvoir à l’ère de l’IA », qui propose même que chaque personne consomme au moins 100 millions de tokens par jour, idéalement 1 milliard, sinon « ceux qui consomment 1 milliard de tokens deviendront des dieux, et nous, nous resterons des humains ».
Mais peu de gens ont réellement fait le calcul. Selon le tarif de GPT-4o, 1 milliard de tokens par jour coûte environ 6800 dollars, soit près de 50 000 RMB. À quel niveau de valeur doit-on utiliser cette capacité pour que cela en vaille la peine à long terme ?
Je ne nie pas que l’anxiété liée à la diffusion de l’IA soit efficace pour la propagation, et je comprends que ce secteur est presque quotidiennement « explosé ». Mais l’avenir de l’Agent ne devrait pas se réduire à une compétition de consommation de tokens.
Pour devenir riche, il faut d’abord construire la route, mais en faire trop n’est qu’une perte. La grande arène sportive de dix mille places érigée dans les montagnes de l’Ouest finira souvent par devenir un terrain envahi par la végétation, plutôt qu’un centre pour accueillir des événements internationaux.
L’IA vise finalement l’égalité technologique, pas la concentration de privilèges. Presque toutes les technologies qui ont réellement changé l’histoire humaine ont connu mythification, monopole, puis diffusion. La machine à vapeur n’était pas réservée à la noblesse, l’électricité n’était pas uniquement pour les palais royaux, et Internet ne sert pas seulement à quelques entreprises.
L’iPhone a changé la communication, mais il n’a pas créé une « aristocratie de la communication ». Avec le même prix, un appareil utilisé par un citoyen ordinaire n’est pas différent de celui de Taylor Swift ou LeBron James. C’est cela, l’égalité technologique.
L’IA suit le même chemin. Ce que propose ChatGPT, c’est essentiellement l’égalité des connaissances et des capacités. Le modèle ne connaît pas votre identité, ne se soucie pas de qui vous êtes, il répond simplement selon un ensemble de paramètres uniformes.
Ainsi, que l’Agent consomme 100 millions ou 1 milliard de tokens, cela ne détermine pas une supériorité ou une infériorité. La véritable différence réside dans la clarté de l’objectif, la structure de l’approche, et la pertinence des questions posées.
Une capacité plus précieuse consiste à produire un effet plus grand avec moins de tokens. La limite d’utilisation de l’Agent dépend de la capacité de jugement et de conception de l’utilisateur, et non de la durée pendant laquelle la carte bancaire peut supporter la consommation. En réalité, la récompense de l’IA pour la créativité, l’intuition et la structuration dépasse largement celle pour la simple consommation.
C’est cela, l’égalité au niveau des outils, et aussi l’endroit où l’humanité conserve encore une certaine maîtrise.
Comment faire face à l’anxiété liée à l’IA
Les étudiants en journalisme et télévision ont été profondément impressionnés après avoir vu la vidéo du lancement de Seedance 2.0 : « Avec ça, tous nos métiers de scénariste, de monteur, de photographe risquent d’être remplacés par l’IA. »
L’IA évolue trop vite, l’humanité est en train de tout perdre, de nombreux emplois seront remplacés, c’est inévitable. Lors de l’invention de la machine à vapeur, les cochers devaient déjà se faire à l’idée qu’ils n’auraient plus leur place.
Beaucoup commencent à s’inquiéter de leur capacité à s’adapter à la société future si l’IA les remplace, même si rationnellement, ils savent que cette évolution apportera aussi de nouvelles opportunités professionnelles.
Mais cette vitesse de remplacement dépasse souvent nos attentes.
Si vos données, vos compétences, voire votre humour et votre valeur émotionnelle peuvent être mieux réalisés par l’IA, pourquoi votre employeur choisirait-il l’humain plutôt que l’IA ? Et si l’employeur était lui-même une IA ? Certains disent alors : « Ne demande pas ce que l’IA peut faire pour toi, mais ce que tu peux faire pour l’IA », une véritable philosophie de la soumission.
Le philosophe Max Weber, vivant à la fin du XIXe siècle lors de la seconde révolution industrielle, a introduit le concept de rationalité instrumentale, qui concerne « quels moyens utiliser pour atteindre un objectif fixé au moindre coût et de la manière la plus calculable ».
Ce point de départ de la rationalité instrumentale est : ne pas remettre en question si cet objectif « devrait » être poursuivi, mais se concentrer uniquement sur « comment » le réaliser de la meilleure façon.
Et cette façon de penser est précisément le premier principe de l’IA.
L’agent IA se concentre sur comment mieux réaliser la tâche donnée : comment mieux coder, comment mieux générer des vidéos, comment mieux rédiger des articles. Sur ce plan d’outillage, le progrès de l’IA est exponentiel.
Depuis la première partie d’Alphago contre Lee Sedol, l’humanité a définitivement perdu face à l’IA dans le domaine du go.
Max Weber a exprimé une inquiétude célèbre, celle de « la cage de fer de la rationalité ». Lorsque la rationalité instrumentale devient la logique dominante, les objectifs eux-mêmes ne sont plus remis en question, il ne reste plus qu’à faire fonctionner tout plus efficacement. Les humains deviennent très rationnels, mais perdent en même temps leur jugement de valeur et leur sens.
Mais l’IA n’a pas besoin de jugement de valeur ni de sens, elle calcule simplement la fonction de productivité et d’intérêt économique, et trouve le maximum absolu qui touche la courbe d’utilité.
Ainsi, dans le système capitaliste actuel dominé par la rationalité instrumentale, l’IA est naturellement mieux adaptée à ce système. Dès la naissance de ChatGPT, comme la défaite de Lee Sedol, nous avons perdu face à l’agent IA, car c’est comme si le code de Dieu avait été écrit pour nous faire perdre, et que nous avions simplement appuyé sur le bouton de lancement. La seule différence, c’est de savoir quand la roue de l’histoire nous écrasera.
Et que faire alors ?
L’humanité doit poursuivre le sens.
Dans le domaine du go, une vérité désespérante est que la probabilité qu’un joueur professionnel de haut niveau, 9e dan, fasse match nul avec une IA est théoriquement proche de zéro.
Mais le jeu de go existe toujours. Son sens n’est plus seulement la victoire ou la défaite, mais devient une forme d’esthétique et d’expression. Les joueurs professionnels ne cherchent pas seulement la victoire, mais aussi la structure du jeu, les choix stratégiques, la sensation de renversement dans une position défavorable, la complexité des situations et la résolution des conflits.
L’humanité recherche la beauté, la valeur, le bonheur.
Bolt court le 100 mètres en 9,58 secondes, et Ferrari parcourt cette distance en moins de 3 secondes, mais cela n’enlève rien à la grandeur de Bolt. Car Bolt symbolise la volonté humaine de repousser ses limites, de poursuivre l’excellence.
Plus l’IA devient puissante, plus l’humanité a le droit de poursuivre la liberté de ses aspirations.
Max Weber a opposé à la rationalité instrumentale la rationalité de la valeur. Dans un monde guidé par cette dernière, le choix de faire ou non quelque chose ne dépend pas uniquement des intérêts économiques ou de la productivité, mais aussi de « si cette chose en vaut la peine », « si elle correspond à la signification, la foi ou la responsabilité que je lui attribue ».
Je demande à ChatGPT : si le Louvre prenait feu et qu’il y aurait un chaton mignon à sauver, si je ne pouvais sauver qu’un seul, choisirais-je de sauver le chat ou le tableau célèbre ?
Il a répondu qu’il sauverait le chat, en donnant toute une série de raisons.
Mais je peux aussi choisir de sauver le tableau, alors pourquoi ne pas le faire ? Il a immédiatement changé d’avis : « Sauver le tableau est aussi possible. »
De toute évidence, pour ChatGPT, sauver le chat ou le tableau ne fait aucune différence. Il a simplement reconnu le contexte, effectué une inférence selon la formule sous-jacente du grand modèle, consommé quelques tokens, et accompli une tâche humaine.
Quant à se demander pourquoi réfléchir à cette question ou si nous serons remplacés par l’IA, cela n’intéresse pas vraiment ChatGPT.
Donc, ce qui mérite vraiment réflexion, ce n’est pas si nous serons remplacés par l’IA, mais lorsque l’IA rendra le monde de plus en plus efficace, serons-nous toujours prêts à réserver un espace au bonheur, à la signification et à la valeur ?
Il est important de devenir une personne qui maîtrise mieux l’IA, mais avant cela, peut-être est encore plus crucial de ne pas oublier comment être un humain.