No todos los días un alto responsable de seguridad en inteligencia artificial abandona una de las compañías más influyentes del sector para escribir poesía. Y mucho menos dejando una advertencia que ha encendido el debate tecnológico: el mundo podría enfrentarse a riesgos interconectados que van mucho más allá de la propia IA.
Un adiós inesperado en el corazón de la IA
Mrinank Sharma, hasta ahora jefe de seguridad de inteligencia artificial en Anthropic, ha anunciado su dimisión con una carta pública que se ha viralizado rápidamente. En ella no solo explica su salida, sino que describe el momento actual del desarrollo tecnológico con un tono entre reflexivo y alarmante.
El ya exdirectivo dirigía el equipo de investigación de salvaguardas de la compañía, centrado en analizar riesgos asociados a la inteligencia artificial. Entre sus funciones estaba estudiar amenazas potenciales como el uso malicioso de modelos avanzados, el bioterrorismo asistido por IA o fenómenos como la “sicofancia” de los sistemas, es decir, su tendencia a complacer al usuario aunque eso implique sesgos o errores.
Su mensaje más comentado es también el más contundente: afirmó que el mundo está en peligro, no solo por la inteligencia artificial o las armas biológicas, sino por una combinación de crisis globales que se desarrollan simultáneamente.
La preocupación dentro de la industria
Las palabras de Sharma no parecen aisladas. Según testimonios internos citados en informes recientes, algunos empleados del sector reconocen sentir que trabajan en tecnologías capaces de transformar radicalmente el mercado laboral, incluso el suyo propio.
El propio Sharma reflexionó sobre ese dilema ético: la humanidad está aumentando su capacidad de influir en el mundo a un ritmo que exige un crecimiento equivalente en sabiduría. De lo contrario, advirtió, las consecuencias podrían ser graves.
Este tipo de declaraciones reflejan una tensión creciente dentro de la industria: el desarrollo acelerado de modelos cada vez más potentes está superando la capacidad de adaptación social, regulatoria y ética.
De la seguridad de la IA a la poesía
Lo que más ha sorprendido no es solo la advertencia, sino el destino elegido por Sharma tras su salida. En su carta anunció que dedicará su tiempo a lo que describe como la “práctica del discurso valiente” a través de la poesía.
El giro profesional ha sido interpretado como una crítica implícita al ritmo y prioridades del sector tecnológico. Mientras otros ejecutivos que abandonan empresas del ámbito de la IA suelen hacerlo para lanzar nuevos proyectos similares, Sharma ha optado por un camino radicalmente distinto.
En las últimas semanas, además, otras figuras relevantes vinculadas a desarrollos de inteligencia artificial en la misma compañía también han anunciado su salida, aunque en esos casos para continuar trabajando dentro del sector.
Puedes seguir a HardwarePremium en Facebook, Twitter (X), Instagram, Threads, BlueSky o Youtube. También puedes consultar nuestro canal de Telegram para estar al día con las últimas noticias de tecnología.
FAQ
Era el jefe de seguridad de inteligencia artificial en Anthropic y lideraba investigaciones sobre riesgos y salvaguardas de IA.
Publicó una carta donde expresó preocupaciones éticas y globales sobre el desarrollo tecnológico y anunció que quiere dedicarse a la poesía.
Advirtió sobre crisis interconectadas, el impacto social de la IA y la necesidad de que la sabiduría humana crezca al mismo ritmo que la tecnología.
Sí, en semanas recientes otros perfiles relevantes han salido de la empresa, aunque la mayoría lo hizo para continuar proyectos dentro del sector de IA.
No necesariamente. Las declaraciones reflejan preocupaciones éticas y de gobernanza tecnológica, no una confirmación de peligro inminente.



