Opinión: La inteligencia artificial no es inevitable pero aún podemos elegir otro camino

To shared

THE LATIN VOX (22 de julio del 2025).- Por Francisco Javier Valdiviezo Cruz

En los pasillos de Silicon Valley, la narrativa es clara: la inteligencia artificial general (AGI, por sus siglas en inglés) es inevitable.

Se trata del próximo gran salto tecnológico, y resistirse sería tan inútil como intentar detener una ola con las manos. Pero esta narrativa, repetida como un mantra, es peligrosa, equivocada y profundamente antidemocrática.

Sam Altman, director ejecutivo de OpenAI, lo resumió en 2019 para el New York Times, citando al físico Robert Oppenheimer, creador de la bomba atómica: “La tecnología sucede porque es posible”. Así como el desarrollo nuclear estuvo impulsado por temores de una carrera armamentista, el avance hacia la AGI parece estar motivado no por necesidad, sino por miedo y ambición.

AGI: ¿La última invención de la humanidad?

Los defensores más entusiastas de la AGI la describen como la tecnología definitiva, la que podría resolver todos los problemas humanos… o destruirnos. La posibilidad de que una máquina con capacidad intelectual similar o superior a la humana decida que nuestra especie es prescindible no es ciencia ficción: es una preocupación compartida por Altman, investigadores destacados y voces dentro de los propios laboratorios de IA.

Se ha dicho que, como sucedió con otras especies ante la llegada del ser humano, la humanidad podría terminar simplemente desplazada, eliminada o ignorada por un ente más inteligente que nosotros.

Aun así, se insiste en que “si no lo hacemos nosotros, lo hará otro”, como si estuviéramos atrapados en una competencia cósmica que no admite pausa. Es la lógica del «aceleracionismo efectivo» (e/acc), una ideología que sostiene que el motor del “tecno-capital” no se puede detener, y que el progreso solo avanza en una dirección.

Pero esta visión no es más que una elección disfrazada de destino.

La historia demuestra que podemos elegir

Una y otra vez, la humanidad ha frenado tecnologías poderosas por razones éticas, sociales o ambientales.

En los años 70, los biólogos impusieron una moratoria sobre la manipulación del ADN recombinante. A pesar de que la clonación humana es técnicamente posible, nunca se ha permitido. Las armas químicas, biológicas y hasta los láseres cegadores han sido prohibidos internacionalmente, no por imposibilidad técnica, sino por voluntad política.

Incluso la carrera nuclear —la más emblemática de todas— ha sido contenida. A mediados de los años 80, Estados Unidos y la Unión Soviética estuvieron a punto de acordar la eliminación total de sus arsenales nucleares.

Aunque no se logró, el número de armas disminuyó drásticamente en décadas posteriores.

Nada de eso fue casualidad. Fue el resultado de movimientos ciudadanos, presión pública y liderazgo político. Reagan, el gran defensor del armamento, cambió de parecer tras las campañas del movimiento Nuclear Freeze en EE. UU.

De igual modo, los avances en la lucha contra el cambio climático —como la reducción del uso del carbón en EE. UU. o la declaración de emergencia climática en el Reino Unido— ocurrieron gracias a grupos como Extinction Rebellion o Sierra Club, que demostraron que la acción colectiva sí importa.

¿Por qué no regular la AGI?

La AGI no es una necesidad vital para la civilización. No dependemos de ella para seguir viviendo, y a diferencia de los combustibles fósiles —que aún constituyen más del 80% de la energía mundial—, no está arraigada en cada aspecto de nuestra economía.

Regular la IA tampoco significa detener toda innovación. Las IA especializadas pueden seguir mejorando la medicina, la ciencia climática y otros sectores críticos sin necesidad de crear un “nuevo ser” capaz de reemplazarnos.

Sin embargo, los principales laboratorios de IA están inmersos en una carrera a tal velocidad que ni siquiera están aplicando las salvaguardas propuestas por sus propios equipos de seguridad. El “impuesto de seguridad” —es decir, el costo de hacer las cosas bien— se considera inaceptable si implica perder ventaja competitiva.

Algunos empleados de OpenAI ya han renunciado públicamente por perder la confianza en la responsabilidad de su empresa.

Pero la AGI no puede crearse en un garaje. Requiere supercomputadoras colosales, chips diseñados por una industria extremadamente concentrada, y enormes cantidades de energía.

Esto ofrece una oportunidad única para regular desde la base: los gobiernos podrían exigir que toda operación de entrenamiento superior a un cierto umbral (por ejemplo, $100 millones en cómputo) cumpla con normas de seguridad claras y verificables.

Lejos de ser una medida draconiana, esta “gobernanza del cómputo” es una propuesta concreta y viable.

Y si hay preocupación por la competencia internacional, hay ejemplos históricos de acuerdos globales: el Protocolo de Montreal salvó la capa de ozono; el Tratado de No Proliferación Nuclear frenó la expansión atómica.

A pesar de las tensiones actuales, la cooperación global sigue siendo posible.

¿Y si simplemente no queremos AGI?

Cuando se ha preguntado directamente a los ciudadanos si desean una superinteligencia artificial, la mayoría responde que no.

A medida que la IA se vuelve más visible, también crece el rechazo. Sin embargo, los defensores de la inevitabilidad tratan este escepticismo como ignorancia, como si la voluntad popular no importara.

Pero si la AGI fuera realmente inevitable, ¿por qué invertir tanto esfuerzo en convencer al mundo de que lo es? ¿Por qué ocultar los verdaderos motivos, que muchas veces no son más que la ambición, el poder o el deseo de reducir costos humanos?

La realidad es que la AGI no es el próximo paso natural, sino una opción. Y si el riesgo —como muchos temen— es la extinción de la humanidad, entonces esa opción merece ser debatida, regulada y posiblemente descartada.

Podemos elegir otro futuro

La tecnología no avanza por arte de magia. Avanza porque alguien la diseña, la financia, la construye y la lanza al mundo. Es una serie de decisiones humanas, impulsadas por intereses humanos. Y como tales, pueden ser modificadas, reguladas o detenidas.

No tenemos que construir una máquina que pueda destruirnos. Podemos elegir otra cosa.

Podemos construir un futuro con tecnología útil, sí, pero también justa, sostenible y democrática.

La AGI no es inevitable. Lo que hagamos —o dejemos de hacer— dependerá de nuestra valentía para asumir esa verdad.

Crédito fotográfico: Getty Images


To shared