ChatGPT adivina tu edad: OpenAI despliega su IA ‘vacía’ para proteger a los menores
La IA conversacional se está convirtiendo en una interfaz cotidiana — y por ello, la cuestión de la edad ya no puede ser simplemente un campo de «fecha de nacimiento» llenado al azar. OpenAI ha activado un sistema de predicción de edad en ChatGPT, capaz de estimar si una cuenta es probablemente usada por un menor… y ajustar la experiencia en consecuencia.
Detrás de este cambio hay un mensaje claro: la era de los asistentes «de consumo» ahora toca la gobernanza, entre la seguridad de los jóvenes, el cumplimiento regulatorio y la preparación de un futuro «modo adulto».
ChatGPT: Una «predicción de edad» que activa un modo más protegido
OpenAI despliega un modelo que evalúa señales de uso y de cuenta para estimar si el usuario tiene menos de 18 años. Entre las señales citadas: la antigüedad de la cuenta, los hábitos de uso (incluyendo horarios), patrones de actividad y — cuando existe — la información sobre edad declarada.
Si el sistema «piensa» que una cuenta probablemente tiene menos de 18 años, ChatGPT cambia automáticamente a una experiencia más regulada, limitando, entre otras cosas, el acceso a contenidos considerados sensibles.
OpenAI también indica que si la edad es incierta, la experiencia puede volverse «por defecto» más cautelosa — en otras palabras: cuando hay dudas, la plataforma opta por el modo más protector.
Las medidas de protección: lo que ChatGPT restringe para cuentas sospechosas de ser menores
Las protecciones anunciadas apuntan explícitamente a varias categorías:
- violencia gráfica/gore
- desafíos virales que pueden fomentar comportamientos de riesgo
- rol sexual, romántico o violento
- contenidos relacionados con la automutilación
- contenidos que faciliten ideales corporales extremos, dietas nocivas o body shaming
Punto importante: OpenAI insiste en que los adolescentes aún pueden usar ChatGPT «para aprender, crear, hacer preguntas», pero con un tratamiento más cauteloso de ciertos temas.
¿Cómo corregir una clasificación… a través de un selfie (Persona)?
Por supuesto, el ángulo que provoca reacciones: ¿qué sucede si la IA se equivoca y te clasifica como «menor de 18 años»?
OpenAI ofrece una salida: la verificación de edad a través de Persona, un servicio tercero. En concreto, el usuario puede confirmar su edad en la configuración; la verificación se realiza a través de un selfie (según los casos, potencialmente con un documento de identidad, según los mercados y políticas). OpenAI afirma que no recibe directamente el selfie/el ID, y solo obtiene la información útil (fecha de nacimiento/resultado de verificación).
OpenAI también añade un detalle interesante: si verificas tu edad, la plataforma ya no ejecuta la predicción de edad en tu cuenta (lógico: te conviertes en «catalogado» de manera estable).
¿Por qué ahora: la sombra de un «modo adulto» y la presión regulatoria?
Este despliegue no llega en un vacío. Varias fuentes relacionan esta mecánica con la preparación de un «modo adulto» mencionado para principios de 2026, que requeriría un sistema robusto para evitar que un menor acceda a él.
Otra señal: el calendario europeo. OpenAI indica que la activación en la UE llegará «en las próximas semanas», lo que sugiere restricciones específicas de cumplimiento y despliegue por región.
Y más ampliamente, toda la industria se ve empujada hacia mecanismos de aseguramiento de edad: la promesa de IA cada vez más personal (y potencialmente más «adulta» en ciertos usos) hace que la edad… sea ineludible.
La línea delgada entre protección útil y perfilado por comportamiento
Sobre el papel, la idea tiene una elegancia formidable: en lugar de preguntar «¿cuántos años tienes?» (y recoger mentiras), el sistema observa señales de uso y aplica un modo protector cuando es necesario.
Pero, es también ahí donde comienzan los debates:
- Privacidad: incluso si OpenAI habla de «señales» y enmarca la verificación a través de un tercero, el enfoque sigue siendo una forma de inferencia sobre la identidad de uso — y, por lo tanto, un tema sensible para la confianza.
- Falsos positivos/falsos negativos: un adulto «joven» en su estilo, o un adolescente muy «maduro» en sus usos, puede confundir las cosas. OpenAI reconoce implícitamente que «ningún sistema es perfecto» y prevé un procedimiento de corrección.
- Diseño por defecto: el hecho de «pasar a más restricciones en caso de incertidumbre» es coherente en términos de seguridad, pero puede generar un efecto frustrante para algunos adultos — especialmente si la verificación se convierte en la única salida cómoda.
En realidad, OpenAI hace una apuesta: es mejor controlar el acceso por adelantado (con salvaguardias a veces demasiado estrictas) que asumir el riesgo de que una IA deje pasar contenidos sensibles a un público menor — un riesgo jurídico, pero también un riesgo reputacional.
Concretamente, ¿qué cambia para ti?
Si eres adulto, es posible que no notes nada… excepto si el modelo te clasifica como «probablemente menor», en cuyo caso pasarás a la experiencia protegida y deberás verificar tu edad para volver a una experiencia menos restringida. Si tienes menos de 18 años, la experiencia se vuelve más regulada en ciertos temas (violencia gráfica, rol sexual/violento, etc.).
Y si te encuentras en la Unión Europea, el despliegue se anuncia en las próximas semanas en lugar de «inmediato».




