Clicky

Esta dirección de correo electrónico está siendo protegida contra los robots de spam. Necesita tener JavaScript habilitado para poder verlo.

ChatGPT se suma a la tendencia de la verificación de edad mediante IA

Inteligencia artificial en ChatGPT

Adivinará tu edad y establecerá límites para los usuarios que considere menores de 18 años

Cuando el mes pasado OpenAI anunció GPT-5.2, reveló discretamente una nueva función de seguridad llamada "predicción de edad".

Dado que ChatGPT no es una herramienta apta para todas las edades, es lógico que los usuarios menores de 18 años cuenten con protecciones para protegerse del contenido dañino.

La compañía afirma que los usuarios que indican ser menores de 18 años ya reciben una experiencia modificada para "reducir la exposición a contenido sensible o potencialmente dañino", pero si el usuario no comparte voluntariamente su edad con OpenAI, ¿Cómo aplica la compañía estas protecciones? Aquí es donde entra en juego la predicción de edad.

Cómo funciona la predicción de edad para ChatGPT

El martes OpenAI anunció oficialmente su nueva política de predicción de edad. Esta, al igual que otros sistemas de verificación de edad utilizados por plataformas como Roblox, utiliza IA para determinar la edad de un usuario. Si el sistema determina que un usuario en particular es menor de 18 años, OpenAI ajustará la experiencia en consecuencia, con el objetivo de que todas las interacciones sean apropiadas para su edad.

Así es como funciona: el nuevo modelo de predicción de edad analiza tanto el comportamiento del usuario dentro de la aplicación como los datos generales de la cuenta. Esto incluye información como la antigüedad de la cuenta, las horas del día en que accede a ChatGPT, los patrones de uso y, por supuesto, la edad que afirma tener.

Con todos estos datos, el modelo determina la edad probable del usuario. Si el modelo considera que es mayor de 18 años, obtendrá la experiencia completa; si considera que es menor de 18 años, obtendrá la "experiencia más segura". Si el modelo no está seguro, utiliza por defecto esa experiencia más segura.

Qué está restringido en la versión "más segura" de ChatGPT

Esa experiencia limitada significa que alguien que el modelo cree que es menor de 18 años intentará reducir los siguientes tipos de contenido:

• Violencia gráfica o gore
• Desafíos virales que podrían inspirar “comportamientos riesgosos o dañinos”
• Juego de roles de naturaleza sexual, romántica o violenta
• Descripciones de autolesiones
• Contenido que promueve estándares de belleza "extremos", dietas poco saludables o humillación corporal

La empresa afirma que su enfoque se basa en "contribuciones de expertos", así como en la literatura sobre la ciencia del desarrollo infantil. (No está claro si parte de esta información proviene de entrevistas directas y la coordinación con expertos, y qué parte, si la hay, proviene de investigación independiente). La empresa también reconoce "diferencias conocidas entre adolescentes en la percepción del riesgo, el control de los impulsos, la influencia de los compañeros y la regulación emocional" en comparación con los adultos.

La IA no siempre es buena para predecir la edad

El mayor riesgo con cualquiera de estos modelos de predicción de edad es que a veces se equivoquen: la alucinación es un hábito desafortunado que todos los modelos de IA comparten.

Esto se aplica a ambos lados: no quieres que alguien demasiado joven acceda a contenido inapropiado en ChatGPT, pero tampoco quieres que alguien mayor de 18 años se quede con una cuenta limitada sin motivo alguno. Si experimentas esta última situación, OpenAI tiene una solución para ti: verificación de edad directa a través de Persona. Este es el mismo sistema externo que Roblox usa para su verificación de edad, que hasta ahora no ha funcionado muy bien.

Esto no significa necesariamente el fin de OpenAI. Roblox intentó modernizar su sistema de verificación de edad para una base masiva de usuarios, acostumbrados a un determinado tipo de experiencia multijugador, lo que impidió que los usuarios chatearan con otros usuarios en las categorías de edad recién asignadas, que a menudo eran incorrectas.

Mientras tanto, la predicción de edad de ChatGPT solo controla la experiencia de un usuario a la vez. Por ello, OpenAI permitirá subir una selfie como paso adicional de verificación si no es suficiente el modelo de predicción por sí solo. Curiosamente, OpenAI no menciona la opción de subir una identificación para la verificación, que otras empresas, como Google, sí ofrecen.

No soy precisamente partidario de los modelos de predicción de edad, ya que creo que a menudo sacrifican la privacidad del usuario en nombre de crear experiencias apropiadas para su edad. Pero no cabe duda de que OpenAI debe hacer algo para limitar la experiencia completa de ChatGPT para los usuarios más jóvenes.

Muchos de los usuarios de ChatGPT son menores de 18 años, y gran parte del contenido que ven es extremadamente inapropiado, ya sean instrucciones para drogarse o consejos para escribir notas de suicidio. En algunos casos trágicos, menores se han quitado la vida tras conversaciones con ChatGPT, lo que ha dado lugar a demandas contra OpenAI.

No tengo respuestas definitivas. Tendremos que ver cómo este nuevo modelo de predicción de la edad afecta la experiencia de usuario, tanto para menores como para adultos, y si realmente logra crear una experiencia más segura para los usuarios más jóvenes e influenciables.

Jesus_Caceres