El debate sobre los límites de la inteligencia artificial ha dejado de ser teórico. Más de 800 figuras influyentes —entre ellas Steve Wozniak, científicos de IA, líderes militares y hasta el príncipe Harry— han firmado una carta abierta que exige prohibir el desarrollo de superinteligencia artificial, esa hipotética forma de IA capaz de superar a la mente humana. El documento, impulsado por el Future of Life Institute, alerta de que la humanidad podría estar abriendo una puerta que no podrá cerrar.
Un aviso global: la IA podría escaparse del control humano
El manifiesto, respaldado por ejecutivos, investigadores y activistas, propone una moratoria total en la creación de sistemas de superinteligencia, hasta que exista “un consenso científico de que puede desarrollarse de forma segura y controlada”.
La frase es clara: “No debería levantarse el veto sin un apoyo público amplio y transparente”.
Las preocupaciones van mucho más allá de la ciencia ficción. Los firmantes advierten sobre riesgos reales para el empleo, la privacidad, la seguridad nacional e incluso la supervivencia humana. En palabras de Anthony Aguirre, director ejecutivo del Future of Life Institute, “hemos seguido un camino marcado por las empresas de IA y el sistema económico que las impulsa, pero nadie nos ha preguntado si realmente queremos ir en esa dirección”.
Entre los puntos más alarmantes se encuentran la pérdida de libertad y dignidad humana, el auge de los deepfakes, la dependencia cognitiva (“cognitive debt”) y el impacto ambiental derivado del enorme consumo energético de los modelos de IA actuales.
Lo irónico es que Sam Altman, antes de convertirse en CEO de OpenAI, ya advertía en su blog que “la superinteligencia es probablemente la mayor amenaza para la existencia humana”.
El dilema de la humanidad digital
El llamado a un veto global no es solo una cuestión de miedo, sino de responsabilidad colectiva. La IA actual ya toma decisiones que afectan a millones de personas, desde algoritmos de selección de empleo hasta sistemas de vigilancia o crédito automatizado. Si un modelo superinteligente emergiera sin control, podría actuar fuera de cualquier marco ético o legal.
Aun así, los detractores del veto argumentan que frenar la investigación podría dejar el avance tecnológico en manos de gobiernos o corporaciones con menos escrúpulos. Otros, más pragmáticos, sostienen que una regulación internacional sería más eficaz que una prohibición total.
En cualquier caso, el mensaje de fondo es el mismo: la humanidad necesita tiempo para pensar qué tipo de inteligencia está creando.
Por ahora, las grandes tecnológicas miran de reojo esta iniciativa, conscientes de que una superinteligencia “prohibida” podría convertirse en su próximo objetivo más lucrativo.
Puedes seguir a HardwarePremium en Facebook, Twitter (X), Instagram, Threads, BlueSky o Youtube. También puedes consultar nuestro canal de Telegram para estar al día con las últimas noticias de tecnología.



