OpenAI anunció que ChatGPT incorporará controles parentales y nuevas medidas de seguridad, tras la muerte de un adolescente que supuestamente recibió respuestas peligrosas del chatbot. La familia ha demandado a la compañía y a su CEO, Sam Altman, en un proceso que podría cambiar la manera en que usamos la IA.
¿ChatGPT necesita un “modo padre”? Pues parece que sí
El suceso que disparó las alarmas ocurrió en Reino Unido, cuando un joven de 16 años llamado Adam Raine compartió con ChatGPT pensamientos autodestructivos. Según la demanda, el sistema no solo no logró frenar esa espiral, sino que incluso ofreció respuestas que pudieron agravar su estado emocional. La familia responsabilizó directamente a OpenAI por no contar con suficientes barreras de seguridad en el servicio.
Ante la presión mediática y legal, la empresa ha confirmado que trabaja en un sistema de control parental que permitirá configurar contactos de emergencia, recibir alertas en momentos críticos y activar accesos rápidos para pedir ayuda real. La idea es que ChatGPT no se limite a recomendar buscar apoyo, sino que pueda conectar directamente con familiares, amigos o profesionales de la salud.
¿IA salvadora o un riesgo con voz bonita?
Lo curioso es que OpenAI asegura que ya había reforzado los filtros de seguridad en GPT-5, con mejoras del 25% en la detección de situaciones de riesgo frente a la versión anterior. Además, la compañía colabora con más de 90 médicos en 30 países, creando recursos locales en EE. UU. y Europa para derivar a usuarios hacia especialistas.
La pregunta es obvia: ¿será suficiente? Lo que sí sabemos es que el despliegue será gradual y, aunque no hay fecha exacta, se espera que los controles lleguen primero a EE. UU. y Europa antes de extenderse globalmente.
Puedes seguir a HardwarePremium en Facebook, Twitter (X), Instagram, Threads, BlueSky o Youtube. También puedes consultar nuestro canal de Telegram para estar al día con las últimas noticias de tecnología.