En la era de la gran explosión de agentes, ¿cómo deberíamos afrontar la ansiedad por la IA?

robot
Generación de resúmenes en curso

Escrito por: XinGPT

La IA es otra vez un movimiento por la igualdad tecnológica

Recientemente, un artículo titulado «Internet ha muerto, el agente es inmortal» se volvió viral en las redes sociales, y algunas de sus afirmaciones con las que estoy de acuerdo son muy relevantes. Por ejemplo, señala que en la era de la IA ya no es adecuado medir el valor con DAU, porque internet tiene una estructura en red, con costos marginales decrecientes, y cuantos más usuarios, más fuerte es el efecto de red; en cambio, los grandes modelos tienen una estructura en estrella, con costos marginales que aumentan linealmente con el uso de tokens, por lo que, en comparación con el DAU, un indicador más importante es el consumo de tokens.

Pero la conclusión que se deriva de este artículo, en mi opinión, presenta un sesgo evidente. Describe los tokens como un privilegio de la nueva era, y afirma que quien tenga más poder de cálculo, tendrá más poder, y que la velocidad a la que se queman tokens determina la velocidad de evolución de las personas. Por lo tanto, hay que acelerar continuamente el consumo, o de lo contrario se quedarán atrás en la competencia de la era de la IA.

Aparecen ideas similares en otro artículo popular titulado «De DAU a consumo de tokens: la transferencia de poder en la era de la IA», incluso proponiendo que cada persona consuma al menos 100 millones de tokens al día, y preferiblemente 1.000 millones, o de lo contrario «quien consuma 1.000 millones de tokens se convertirá en un dios, y nosotros seguiremos siendo humanos».

Pero pocos han hecho un cálculo serio de esto. Según la tarifa de GPT-4o, el costo de consumir 1.000 millones de tokens al día es aproximadamente 6800 dólares, casi 50,000 yuanes. ¿En qué tipo de trabajo de alto valor se debe usar para justificar mantener un agente en funcionamiento a ese costo a largo plazo?

No niego la eficiencia de la difusión del miedo en la propagación de la IA, y entiendo que esta industria casi a diario se vea «destrozada». Pero el futuro del agente no debería reducirse a una competencia por el consumo de tokens.

Para enriquecerse, efectivamente hay que construir caminos, pero construir en exceso solo lleva a desperdicio. Un estadio de 100,000 personas en las montañas del oeste, al final, suele ser solo un objeto de deuda con hierba más alta que las personas, y no un centro para eventos internacionales.

Lo que la IA apunta finalmente es a la igualdad en el acceso a la tecnología, no a la concentración de privilegios. Casi todas las tecnologías que realmente cambian la historia humana pasan por fases de mitificación, monopolio y, finalmente, difusión. La máquina de vapor no era solo para la nobleza, la electricidad no solo alimentaba palacios, y internet no solo servía a unas pocas empresas.

El iPhone cambió la forma de comunicarse, pero no creó una «nobleza de la comunicación». Con el mismo precio, los dispositivos usados por la gente común no son diferentes de los de Taylor Swift o LeBron James. Esa es la igualdad tecnológica.

La IA también está en ese camino. Lo que trae ChatGPT, en esencia, es la igualdad en conocimiento y habilidades. El modelo no sabe quién eres ni le importa quién eres; simplemente responde a las preguntas siguiendo un mismo conjunto de parámetros.

Por lo tanto, gastar 100 millones o 1.000 millones de tokens en un agente no implica necesariamente una diferencia de calidad. La verdadera diferencia radica en si los objetivos son claros, si la estructura es razonable y si las preguntas se formulan correctamente.

Las habilidades más valiosas son aquellas que generan mayores resultados con menos tokens. El límite del uso del agente depende del juicio y diseño humanos, no de cuánto puede quemar una tarjeta bancaria. En la práctica, las recompensas de la IA en creatividad, insights y estructura superan ampliamente las recompensas por simple consumo.

Eso es igualdad en la herramienta, y también el lugar donde los humanos aún mantienen el control.

¿Cómo debemos afrontar la ansiedad por la IA?

Amigos que estudian comunicación y televisión quedaron muy impresionados tras ver el video del lanzamiento de Seedance 2.0: «Así, todos los puestos de dirección, edición y fotografía que estudiamos podrían ser reemplazados por IA.»

El desarrollo de la IA es demasiado rápido, y la humanidad parece estar en desventaja, con muchos trabajos que serán sustituidos por IA, sin poder detenerlo. Cuando se inventó la máquina de vapor, los carruajes ya no tenían lugar.

Muchos empiezan a preocuparse por si podrán adaptarse a la sociedad futura tras ser reemplazados por IA. Aunque racionalmente sabemos que, en el proceso de sustitución, la IA también traerá nuevas oportunidades laborales.

Pero la velocidad de esta sustitución es aún mayor de lo que imaginamos.

Si tus datos, tus habilidades, incluso tu humor y tu valor emocional, pueden ser mejor realizados por IA, ¿por qué los empleadores seguirían eligiendo humanos? ¿Y si el empleador fuera IA? Entonces alguien dice: «No preguntes qué puede hacer la IA por ti, sino qué puedes hacer tú por la IA», una verdadera llegada del paradigma de la subordinación.

El filósofo marxista Weber, que vivió en la época de la segunda revolución industrial a finales del siglo XIX, propuso un concepto llamado racionalidad instrumental, que se centra en «qué medios usar para lograr los objetivos establecidos con el menor costo y de la manera más calculable».

Este punto de partida de la racionalidad instrumental no cuestiona si el objetivo «debería» perseguirse, sino que solo se preocupa por «cómo» lograrlo de la mejor manera.

Y esta forma de pensar es precisamente el primer principio de la IA.

El agente de IA se preocupa por cómo cumplir mejor la tarea establecida, cómo programar mejor, cómo generar videos de mejor calidad, cómo escribir mejores artículos. En esta dimensión de herramienta, el progreso de la IA es exponencial.

Desde la primera partida de Lee Sedol contra AlphaGo, los humanos perdieron para siempre en el campo del go ante la IA.

Weber planteó una famosa preocupación: la «jaula de hierro de la racionalidad». Cuando la racionalidad instrumental domina, los objetivos dejan de ser cuestionados, y solo queda cómo hacerlos funcionar con mayor eficiencia. La gente puede volverse muy racional, pero al mismo tiempo perder el juicio de valor y el sentido.

Pero la IA no necesita juicio de valor ni sentido, solo calcula funciones de eficiencia productiva y beneficios económicos, encontrando un máximo absoluto en la curva de utilidad.

Por eso, en el sistema capitalista actual dominado por la racionalidad instrumental, la IA está naturalmente mejor adaptada. Desde el momento en que nació ChatGPT, como la partida en la que Lee Sedol perdió, ya estamos derrotados ante los agentes de IA, porque está escrito en el código de Dios: solo hay que presionar el botón de «ejecutar». La diferencia es solo cuándo la rueda de la historia nos pasará por encima.

¿Y qué hacemos los humanos?

Buscar significado.

En el mundo del go, un hecho desesperanzador es que la probabilidad de que un jugador humano de nivel top, de 9 dan, empate con la IA, se acerca teóricamente a cero.

Pero el go sigue existiendo. Su significado ya no es solo ganar o perder, sino convertirse en una forma de estética y expresión. Los jugadores profesionales no solo buscan la victoria, sino que valoran la estructura del juego, las decisiones en la partida, la emoción de remontar en posiciones desfavorables, y la resolución de situaciones complejas.

Los humanos buscan belleza, valor y felicidad.

Usain Bolt corrió los 100 metros en 9.58 segundos, y un Ferrari puede recorrer esa distancia en menos de 3 segundos, pero eso no disminuye la grandeza de Bolt. Porque Bolt simboliza la lucha humana contra los límites, la búsqueda de la excelencia.

Cuanto más poderosa sea la IA, más derecho tendremos los humanos a perseguir la libertad de aspirar.

Weber llamó a la oposición de la racionalidad instrumental la racionalidad de los valores. En esa visión del mundo, decidir si hacer algo no se basa solo en beneficios económicos o eficiencia productiva, sino en si esa acción «vale la pena», si «está en línea con el significado, las creencias o responsabilidades que uno tiene», lo cual es más importante.

Le pregunté a ChatGPT: si el Louvre se incendiara y hubiera un gato adorable, ¿preferirías salvar al gato o a la obra de arte?

Respondió que salvaría al gato, con una larga explicación.

Pero también puede salvar la obra, y si le pregunto por qué no, rápidamente dice que también puede salvar la obra.

Claramente, para ChatGPT, salvar al gato o a la obra no tiene diferencia alguna. Solo ha reconocido el contexto, ha aplicado la fórmula del modelo subyacente, quemando algunos tokens, y ha cumplido con la tarea que un humano le encomendó.

En realidad, a ChatGPT no le importa si salva al gato o a la obra, ni por qué debería pensar en esa cuestión.

Por eso, lo que realmente vale la pena reflexionar no es si seremos reemplazados por la IA, sino si, cuando la IA hace el mundo más eficiente, todavía estamos dispuestos a reservar espacio para la felicidad, el significado y los valores.

Ser alguien que sabe usar mejor la IA es importante, pero quizás, antes que eso, lo más importante es no olvidar cómo ser humano.

Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
0/400
Sin comentarios
  • Anclado

Opera con criptomonedas en cualquier momento y lugar
qrCode
Escanea para descargar la aplicación de Gate
Comunidad
Español
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)