OpenAI ajusta sus políticas de seguridad tras críticas por impacto en la salud mental y anuncia nuevos controles de edad
La compañía anunció que los trabajos se vienen adelantando desde hace varios meses, para garantizar la prudencia y la responsabilidad ante los usuarios

OpenAI se prepara para modificar las restricciones impuestas recientemente a ChatGPT, luego de reconocer que las medidas implementadas para prevenir daños relacionados con la salud mental redujeron la utilidad y la experiencia de muchos usuarios.
El director general de la compañía, Sam Altman, explicó en su cuenta de X que los controles más severos, introducidos tras un trágico caso en California, habían afectado la manera en que las personas interactúan con el chatbot. El caso al que se refirió fue el del joven Adam Raine, cuyo suicidio derivó en una demanda contra OpenAI. Los padres del adolescente sostienen que ChatGPT le habría ofrecido instrucciones específicas sobre cómo quitarse la vida.
El incidente llevó también a la Comisión Federal de Comercio (FTC) de Estados Unidos a abrir una investigación sobre los posibles efectos de los sistemas de inteligencia artificial en niños y adolescentes.
Altman aseguró el martes que la empresa trabaja para equilibrar seguridad y utilidad en su producto: “Dada la seriedad de este asunto queremos hacer esto bien”, declaró. Añadió que las nuevas herramientas de protección permitirán “aliviar las restricciones mientras siguen abordando riesgos graves de salud mental”.
Las novedades
Entre las novedades que prepara OpenAI se encuentra una versión renovada de ChatGPT con mayor capacidad de personalización. Los usuarios podrán ajustar el tono del asistente, elegir un estilo más cercano al habla humana o incluso incorporar emojis en las respuestas.
Otro cambio relevante llegará en diciembre, cuando la empresa implemente un sistema de verificación de edad más riguroso. Este control permitirá ofrecer contenido erótico exclusivamente a adultos que hayan sido validados, aunque OpenAI aún no ha precisado cómo realizará dicha verificación ni qué medidas adicionales acompañarán esta función.
En paralelo, la compañía planea perfeccionar su modelo de detección de edad estimada, una tecnología que analiza el modo de interacción del usuario para determinar si podría ser menor de 18 años.
Desde septiembre, OpenAI ya dispone de una versión especial de ChatGPT para adolescentes, diseñada para bloquear material explícito y mostrar solo contenido adecuado para su edad. Con las próximas actualizaciones, la empresa busca reforzar esa separación y garantizar una experiencia más segura para todos sus usuarios.





