Ser una persona que sabe usar mejor la IA es importante, pero antes de eso, quizás lo más importante es no olvidar cómo ser una persona.
Escrito por: XinGPT
La IA es otra vez un movimiento de igualdad tecnológica
Recientemente, un artículo titulado «Internet ha muerto, el Agente es inmortal» se volvió viral en las redes sociales, y algunas de sus afirmaciones con las que estoy de acuerdo. Por ejemplo, señala que en la era de la IA ya no es adecuado medir el valor con DAU, porque internet tiene una estructura en red, con costos marginales decrecientes, y cuanta más gente la usa, más fuerte es el efecto de red; mientras que los grandes modelos tienen una estructura en estrella, con costos marginales que aumentan linealmente con el uso de tokens, por lo que en lugar de DAU, un indicador más importante es el consumo de tokens.
Pero la conclusión que se deriva de este artículo, creo que tiene un sesgo evidente. Describe los tokens como un privilegio de la nueva era, y piensa que quien tenga más poder de cómputo, tendrá más poder, y que la velocidad a la que se queman tokens determina la velocidad de evolución de las personas, por lo que hay que acelerar continuamente su consumo, o de lo contrario, se quedarán atrás en la competencia de la era de la IA.
A ideas similares también se llega en otro artículo popular titulado «De DAU a consumo de tokens: la transferencia de poder en la era de la IA», que incluso propone que cada persona consuma al menos 100 millones de tokens al día, y preferiblemente 1,000 millones, o de lo contrario «quien consuma 1,000 millones de tokens se convertirá en un dios, y nosotros todavía seremos humanos».
Pero muy pocos han hecho un cálculo serio de esto. Según la tarifa de GPT-4o, el costo de 1,000 millones de tokens al día es aproximadamente 6800 dólares, casi 50,000 yuanes. ¿Para qué trabajos de alto valor se necesita usar de forma sostenida un agente con ese costo?
No niego la eficiencia de la difusión de la ansiedad en torno a la IA, y entiendo que esta industria casi todos los días «estalla». Pero el futuro del Agente no debería reducirse a una competencia por el consumo de tokens.
Para enriquecerse, efectivamente hay que construir caminos, pero construir en exceso solo lleva a desperdicio. La gran arena de 100,000 personas en las montañas del oeste, al final, suele ser solo un objeto de deuda con hierba más alta que las personas, y no un centro para eventos internacionales.
Lo que la IA finalmente apunta, es a la igualdad en el acceso a la tecnología, no a la concentración de privilegios. Casi todas las tecnologías que realmente cambian la historia humana pasan por fases de mitificación, monopolio y finalmente difusión. La máquina de vapor no era solo para la nobleza, la electricidad no solo para palacios, y la internet no solo para unas pocas empresas.
El iPhone cambió la forma de comunicarse, pero no creó una «nobleza de la comunicación». Con el mismo precio, los dispositivos usados por la gente común no son diferentes de los de Taylor Swift o LeBron James. Esa es la igualdad tecnológica.
La IA también sigue ese camino. Lo que trae ChatGPT, en esencia, es la igualdad en conocimiento y habilidades. El modelo no sabe quién eres ni le importa quién eres; simplemente responde a las preguntas con un conjunto uniforme de parámetros.
Por eso, quemar 100 millones o 1,000 millones de tokens en un agente no implica una superioridad o inferioridad en sí mismo. La verdadera diferencia radica en si los objetivos son claros, si la estructura es razonable y si las preguntas se formulan correctamente.
Las habilidades más valiosas son aquellas que generan mayores resultados con menos tokens. El límite del uso del agente depende del juicio y diseño humanos, no de cuánto puede quemar una tarjeta bancaria. En realidad, las recompensas por creatividad, insight y estructura en la IA superan ampliamente las recompensas por simple consumo.
Eso es una igualdad en la herramienta, y también el lugar donde la humanidad aún mantiene el control activo.
¿Cómo debemos afrontar la ansiedad por la IA?
Los amigos que estudian comunicación y televisión quedaron muy impresionados tras ver el video del lanzamiento de Seedance 2.0: «Así, todos los puestos de dirección, edición, fotografía que estudiamos, serán reemplazados por IA.»
El desarrollo de la IA es demasiado rápido, la humanidad está en desventaja, muchos trabajos serán sustituidos por IA, y esto parece imparable. Cuando se inventó la máquina de vapor, los carruajes ya no tenían lugar.
Muchos empiezan a preocuparse por si podrán adaptarse a la sociedad futura tras ser reemplazados por IA. Aunque racionalmente sabemos que, en el futuro, la IA también generará nuevas oportunidades laborales.
Pero la velocidad de esa sustitución es aún mayor de lo que imaginamos.
Si tus datos, tus habilidades, incluso tu humor y tu valor emocional, pueden ser mejor realizados por la IA, ¿por qué los empleadores preferirían a la IA en lugar de a las personas? ¿Y si el empleador fuera en realidad IA? Por eso, algunos dicen: «No preguntes qué puede hacer la IA por ti, sino qué puedes hacer tú por la IA», una postura claramente de los que creen en la llegada de la era de la IA.
El filósofo Max Weber, que vivió en la época de la segunda revolución industrial a finales del siglo XIX, propuso un concepto llamado racionalidad instrumental, que se centra en «qué medios usar para lograr un objetivo establecido con el menor costo y de la forma más calculable».
Este punto de partida de la racionalidad instrumental es: no cuestionar si ese objetivo «debería» perseguirse, sino preocuparse solo por «cómo» lograrlo de la mejor manera.
Y precisamente, ese modo de pensar es el primer principio de la IA.
El agente de IA se preocupa por cómo cumplir mejor la tarea establecida, cómo programar mejor, cómo generar mejor videos, cómo escribir mejores artículos. En esta dimensión de herramienta, el progreso de la IA es exponencial.
Desde la primera partida que Lee Sedol perdió contra AlphaGo, la humanidad quedó para siempre en desventaja en el campo del go frente a la IA.
Max Weber también expresó una preocupación famosa: la «jaula de hierro de la racionalidad». Cuando la racionalidad instrumental domina, los objetivos dejan de ser cuestionados, y solo queda cómo hacerlos más eficientes. La gente puede volverse muy racional, pero al mismo tiempo perder el juicio de valor y el sentido de la vida.
Pero la IA no necesita juicio de valor ni sentido, solo calcula funciones de eficiencia productiva y beneficios económicos, encontrando un máximo absoluto en la curva de utilidad.
Por eso, en el sistema capitalista actual dominado por la racionalidad instrumental, la IA está naturalmente mejor adaptada a este sistema. Desde el momento en que nació ChatGPT, como la partida en la que Lee Sedol perdió, estamos derrotados por la IA. La diferencia es que la rueda de la historia ya está en marcha, y solo nos queda esperar cuándo pasará por encima de nosotros.
¿Y qué hacemos los humanos?
Buscar significado.
En el campo del go, una realidad desesperanzadora es que la probabilidad de que los mejores jugadores humanos, los de nivel 9 dan, empaten con la IA, se acerca teóricamente a cero.
Pero el go sigue existiendo. Su significado ya no es solo ganar o perder, sino convertirse en una forma de estética y expresión. Los jugadores profesionales no solo buscan la victoria, sino también la estructura del juego, las decisiones en la partida, la emoción de remontar en posiciones desfavorables, y la resolución de conflictos en situaciones complejas.
Los humanos buscan belleza, valor y felicidad.
Usain Bolt corrió los 100 metros en 9.58 segundos, y un Ferrari puede recorrer esa distancia en menos de 3 segundos, pero eso no disminuye la grandeza de Bolt. Porque Bolt simboliza el espíritu humano de desafiar los límites y buscar la excelencia.
Cuanto más poderosa sea la IA, más derecho tendremos los humanos a perseguir la libertad de aspirar.
Max Weber llamó a la oposición de la racionalidad instrumental la racionalidad de valores. En esa visión del mundo, decidir si hacer algo no se basa solo en beneficios económicos o eficiencia productiva, sino en si esa acción «vale la pena», si «está en línea con el significado, las creencias o responsabilidades que yo mismo he establecido», lo cual es más importante.
Le pregunté a ChatGPT: si el Louvre se incendiara y hubiera un gato adorable, ¿preferirías salvar al gato o a la obra de arte?
Respondió que salvaría al gato, y dio una larga lista de razones.
Pero también le pregunté: ¿y por qué no salvar la obra de arte? Y de inmediato cambió de postura: también se puede salvar la obra.
Claramente, para ChatGPT, salvar al gato o a la obra de arte no tiene diferencia alguna. Solo completó el reconocimiento del contexto, usó la fórmula del modelo profundo para razonar, quemó algunos tokens y cumplió con la tarea humana.
En realidad, a ChatGPT no le importa si se salva al gato o a la obra, ni por qué se piensa en esa cuestión.
Por eso, lo que realmente vale la pena reflexionar no es si seremos reemplazados por la IA, sino si, cuando la IA hace el mundo más eficiente, todavía estamos dispuestos a reservar espacio para la felicidad, el significado y los valores.
Ser una persona que sabe usar mejor la IA es importante, pero antes de eso, quizás lo más importante es no olvidar cómo ser una persona.
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
En la era de la gran explosión de agentes, ¿cómo deberíamos afrontar la ansiedad por la IA?
Ser una persona que sabe usar mejor la IA es importante, pero antes de eso, quizás lo más importante es no olvidar cómo ser una persona.
Escrito por: XinGPT
La IA es otra vez un movimiento de igualdad tecnológica
Recientemente, un artículo titulado «Internet ha muerto, el Agente es inmortal» se volvió viral en las redes sociales, y algunas de sus afirmaciones con las que estoy de acuerdo. Por ejemplo, señala que en la era de la IA ya no es adecuado medir el valor con DAU, porque internet tiene una estructura en red, con costos marginales decrecientes, y cuanta más gente la usa, más fuerte es el efecto de red; mientras que los grandes modelos tienen una estructura en estrella, con costos marginales que aumentan linealmente con el uso de tokens, por lo que en lugar de DAU, un indicador más importante es el consumo de tokens.
Pero la conclusión que se deriva de este artículo, creo que tiene un sesgo evidente. Describe los tokens como un privilegio de la nueva era, y piensa que quien tenga más poder de cómputo, tendrá más poder, y que la velocidad a la que se queman tokens determina la velocidad de evolución de las personas, por lo que hay que acelerar continuamente su consumo, o de lo contrario, se quedarán atrás en la competencia de la era de la IA.
A ideas similares también se llega en otro artículo popular titulado «De DAU a consumo de tokens: la transferencia de poder en la era de la IA», que incluso propone que cada persona consuma al menos 100 millones de tokens al día, y preferiblemente 1,000 millones, o de lo contrario «quien consuma 1,000 millones de tokens se convertirá en un dios, y nosotros todavía seremos humanos».
Pero muy pocos han hecho un cálculo serio de esto. Según la tarifa de GPT-4o, el costo de 1,000 millones de tokens al día es aproximadamente 6800 dólares, casi 50,000 yuanes. ¿Para qué trabajos de alto valor se necesita usar de forma sostenida un agente con ese costo?
No niego la eficiencia de la difusión de la ansiedad en torno a la IA, y entiendo que esta industria casi todos los días «estalla». Pero el futuro del Agente no debería reducirse a una competencia por el consumo de tokens.
Para enriquecerse, efectivamente hay que construir caminos, pero construir en exceso solo lleva a desperdicio. La gran arena de 100,000 personas en las montañas del oeste, al final, suele ser solo un objeto de deuda con hierba más alta que las personas, y no un centro para eventos internacionales.
Lo que la IA finalmente apunta, es a la igualdad en el acceso a la tecnología, no a la concentración de privilegios. Casi todas las tecnologías que realmente cambian la historia humana pasan por fases de mitificación, monopolio y finalmente difusión. La máquina de vapor no era solo para la nobleza, la electricidad no solo para palacios, y la internet no solo para unas pocas empresas.
El iPhone cambió la forma de comunicarse, pero no creó una «nobleza de la comunicación». Con el mismo precio, los dispositivos usados por la gente común no son diferentes de los de Taylor Swift o LeBron James. Esa es la igualdad tecnológica.
La IA también sigue ese camino. Lo que trae ChatGPT, en esencia, es la igualdad en conocimiento y habilidades. El modelo no sabe quién eres ni le importa quién eres; simplemente responde a las preguntas con un conjunto uniforme de parámetros.
Por eso, quemar 100 millones o 1,000 millones de tokens en un agente no implica una superioridad o inferioridad en sí mismo. La verdadera diferencia radica en si los objetivos son claros, si la estructura es razonable y si las preguntas se formulan correctamente.
Las habilidades más valiosas son aquellas que generan mayores resultados con menos tokens. El límite del uso del agente depende del juicio y diseño humanos, no de cuánto puede quemar una tarjeta bancaria. En realidad, las recompensas por creatividad, insight y estructura en la IA superan ampliamente las recompensas por simple consumo.
Eso es una igualdad en la herramienta, y también el lugar donde la humanidad aún mantiene el control activo.
¿Cómo debemos afrontar la ansiedad por la IA?
Los amigos que estudian comunicación y televisión quedaron muy impresionados tras ver el video del lanzamiento de Seedance 2.0: «Así, todos los puestos de dirección, edición, fotografía que estudiamos, serán reemplazados por IA.»
El desarrollo de la IA es demasiado rápido, la humanidad está en desventaja, muchos trabajos serán sustituidos por IA, y esto parece imparable. Cuando se inventó la máquina de vapor, los carruajes ya no tenían lugar.
Muchos empiezan a preocuparse por si podrán adaptarse a la sociedad futura tras ser reemplazados por IA. Aunque racionalmente sabemos que, en el futuro, la IA también generará nuevas oportunidades laborales.
Pero la velocidad de esa sustitución es aún mayor de lo que imaginamos.
Si tus datos, tus habilidades, incluso tu humor y tu valor emocional, pueden ser mejor realizados por la IA, ¿por qué los empleadores preferirían a la IA en lugar de a las personas? ¿Y si el empleador fuera en realidad IA? Por eso, algunos dicen: «No preguntes qué puede hacer la IA por ti, sino qué puedes hacer tú por la IA», una postura claramente de los que creen en la llegada de la era de la IA.
El filósofo Max Weber, que vivió en la época de la segunda revolución industrial a finales del siglo XIX, propuso un concepto llamado racionalidad instrumental, que se centra en «qué medios usar para lograr un objetivo establecido con el menor costo y de la forma más calculable».
Este punto de partida de la racionalidad instrumental es: no cuestionar si ese objetivo «debería» perseguirse, sino preocuparse solo por «cómo» lograrlo de la mejor manera.
Y precisamente, ese modo de pensar es el primer principio de la IA.
El agente de IA se preocupa por cómo cumplir mejor la tarea establecida, cómo programar mejor, cómo generar mejor videos, cómo escribir mejores artículos. En esta dimensión de herramienta, el progreso de la IA es exponencial.
Desde la primera partida que Lee Sedol perdió contra AlphaGo, la humanidad quedó para siempre en desventaja en el campo del go frente a la IA.
Max Weber también expresó una preocupación famosa: la «jaula de hierro de la racionalidad». Cuando la racionalidad instrumental domina, los objetivos dejan de ser cuestionados, y solo queda cómo hacerlos más eficientes. La gente puede volverse muy racional, pero al mismo tiempo perder el juicio de valor y el sentido de la vida.
Pero la IA no necesita juicio de valor ni sentido, solo calcula funciones de eficiencia productiva y beneficios económicos, encontrando un máximo absoluto en la curva de utilidad.
Por eso, en el sistema capitalista actual dominado por la racionalidad instrumental, la IA está naturalmente mejor adaptada a este sistema. Desde el momento en que nació ChatGPT, como la partida en la que Lee Sedol perdió, estamos derrotados por la IA. La diferencia es que la rueda de la historia ya está en marcha, y solo nos queda esperar cuándo pasará por encima de nosotros.
¿Y qué hacemos los humanos?
Buscar significado.
En el campo del go, una realidad desesperanzadora es que la probabilidad de que los mejores jugadores humanos, los de nivel 9 dan, empaten con la IA, se acerca teóricamente a cero.
Pero el go sigue existiendo. Su significado ya no es solo ganar o perder, sino convertirse en una forma de estética y expresión. Los jugadores profesionales no solo buscan la victoria, sino también la estructura del juego, las decisiones en la partida, la emoción de remontar en posiciones desfavorables, y la resolución de conflictos en situaciones complejas.
Los humanos buscan belleza, valor y felicidad.
Usain Bolt corrió los 100 metros en 9.58 segundos, y un Ferrari puede recorrer esa distancia en menos de 3 segundos, pero eso no disminuye la grandeza de Bolt. Porque Bolt simboliza el espíritu humano de desafiar los límites y buscar la excelencia.
Cuanto más poderosa sea la IA, más derecho tendremos los humanos a perseguir la libertad de aspirar.
Max Weber llamó a la oposición de la racionalidad instrumental la racionalidad de valores. En esa visión del mundo, decidir si hacer algo no se basa solo en beneficios económicos o eficiencia productiva, sino en si esa acción «vale la pena», si «está en línea con el significado, las creencias o responsabilidades que yo mismo he establecido», lo cual es más importante.
Le pregunté a ChatGPT: si el Louvre se incendiara y hubiera un gato adorable, ¿preferirías salvar al gato o a la obra de arte?
Respondió que salvaría al gato, y dio una larga lista de razones.
Pero también le pregunté: ¿y por qué no salvar la obra de arte? Y de inmediato cambió de postura: también se puede salvar la obra.
Claramente, para ChatGPT, salvar al gato o a la obra de arte no tiene diferencia alguna. Solo completó el reconocimiento del contexto, usó la fórmula del modelo profundo para razonar, quemó algunos tokens y cumplió con la tarea humana.
En realidad, a ChatGPT no le importa si se salva al gato o a la obra, ni por qué se piensa en esa cuestión.
Por eso, lo que realmente vale la pena reflexionar no es si seremos reemplazados por la IA, sino si, cuando la IA hace el mundo más eficiente, todavía estamos dispuestos a reservar espacio para la felicidad, el significado y los valores.
Ser una persona que sabe usar mejor la IA es importante, pero antes de eso, quizás lo más importante es no olvidar cómo ser una persona.