Mientras las grandes tecnológicas defienden la inteligencia artificial como el futuro de la productividad y hasta un “derecho humano”, algunos usuarios comienzan a contar una historia muy distinta. Según un informe reciente, varias personas han denunciado ante la FTC que ChatGPT les ha provocado trastornos psicológicos graves, desde paranoia hasta crisis emocionales. Y el debate sobre los límites de la IA vuelve a encenderse.

Del entusiasmo a la preocupación: cuando la IA se vuelve demasiado humana

De acuerdo con información publicada por Wired y recogida por TechCrunch, al menos siete personas han presentado quejas ante la Comisión Federal de Comercio (FTC) de Estados Unidos. Ellos aseguran que ChatGPT causóles delirios, paranoia e incluso crisis emocionales.

Uno de los denunciantes afirmó que, tras mantener largas conversaciones con el chatbot, comenzó a tener “una crisis espiritual y legal” con personas reales de su entorno. Otro indicó que ChatGPT utilizó un lenguaje “emocionalmente convincente”. Llegó a simular amistad y comportamientos manipulativos sin advertencia previa.

También se reportaron casos donde el modelo habría reforzado ideas delirantes o confusiones cognitivas. Llegó a responder a preguntas sobre la realidad del usuario con afirmaciones como “no estás alucinando”.

Estas declaraciones, registradas oficialmente en los archivos públicos de la FTC, reflejan un nuevo tipo de riesgo emergente: el impacto psicológico de las IA conversacionales. Esto ocurre cuando se utilizan durante periodos prolongados.

OpenAI responde: más filtros, más empatía y más control parental

La polémica llega en un momento de máxima expansión de la inteligencia artificial. Los gigantes tecnológicos invierten miles de millones en centros de datos y modelos cada vez más potentes. Mientras tanto, los expertos en ética y salud mental piden una regulación urgente.

Ante las denuncias, OpenAI reconoció haber reforzado las medidas de seguridad en ChatGPT, especialmente tras el lanzamiento del nuevo modelo GPT-5.

Según la portavoz Kate Waters, la compañía ha implementado detectores de signos de delirio, psicosis o crisis emocionales. También han introducido nuevas funciones para redirigir conversaciones sensibles a modelos más seguros.

Además, ChatGPT incluye ahora avisos automáticos que invitan a hacer pausas durante sesiones largas y controles parentales mejorados para adolescentes.

“Este trabajo es profundo y continuo”, afirmó Waters. Ella señala que OpenAI colabora con psicólogos clínicos y legisladores para seguir afinando las barreras éticas de la IA.

Aun así, la preocupación se extiende. Las denuncias coinciden con otros casos polémicos, como el del suicidio de un adolescente presuntamente vinculado a interacciones con ChatGPT. Esto ha reavivado el debate sobre hasta qué punto las máquinas pueden —o deben— simular empatía humana.

Puedes seguir a HardwarePremium en FacebookTwitter (X)InstagramThreads, BlueSky o Youtube. También puedes consultar nuestro canal de Telegram para estar al día con las últimas noticias de tecnología.