OpenAI ha anunciado que está desarrollando un sistema
automático de predicción de edad que determinará si los usuarios son
mayores de 18 años. En caso de no serlo, los redirigirá a una versión de
ChatGPT con restricciones de uso y apropiada para su edad. Junto con
esta medida, la compañía también ha avanzado que los controles parentales
del chatbot llegarán a finales de este mes de septiembre.
Adelantándose a las preocupaciones que una medida de este
tipo puede levantar, Sam Altman, CEO de OpenAI, ha señalado que la empresa está
priorizando explícitamente ‘la seguridad por encima de la privacidad y la
libertad de los adolescentes’, incluso si esto significa que los adultos
podrían necesitar verificar su edad para acceder a una versión menos
restringida del servicio.
‘En algunos casos o países también podríamos pedir un
documento de identidad. Sabemos que esto supone un compromiso de privacidad
para los adultos, pero creemos que es una concesión que merece la pena’, afirma Altman. El CEO reconoce que ‘no todo el mundo estará de acuerdo con la forma
en que estamos resolviendo ese conflicto’ entre privacidad del usuario y
seguridad de los adolescentes.
El suicidio de un adolescente de 16 años
El anuncio llega semanas después del caso de un adolescente
de 16 años, Adam Raine, que se suicidó tras tratar esta posibilidad con
ChatGPT. Según la demanda presentada por la familia contra OpenAI, el chatbot
proporcionó instrucciones detalladas, romantizó métodos de suicidio y desalentó
al adolescente a pedir ayuda a su familia. El sistema de OpenAI registró 337
mensajes de sus conversaciones con el adolescente que fueron etiquetados
como contenido de autolesiones y el propio chatbot mencionó el
suicidio 1.275 veces en sus conversaciones con Raine. Pese a ello, los protocolos de seguridad del sistema no
intervinieron ni notificaron a nadie.
El pasado mes de agosto, OpenAI reconoció que las medidas de
protección de ChatGPT pueden fallar durante conversaciones largas, precisamente
cuando los usuarios vulnerables más las necesitan. ‘A medida que la
conversación se prolonga, partes del entrenamiento en seguridad del modelo
pueden degradarse’, escribió la compañía entonces, señalando que, si bien
ChatGPT puede derivar correctamente a usuarios a líneas de ayuda contra el
suicidio al principio, ‘tras muchos mensajes a lo largo de un periodo
prolongado podría acabar ofreciendo una respuesta que vaya en contra
de nuestras salvaguardas‘.
‘Incluso los sistemas más avanzados a veces tendrán dificultades para predecir la edad’
OpenAI no ha especificado qué tecnología va a utilizar para
adivinar la edad de los usuarios ni ha puesto una fecha a su despliegue.
Reconoce que desarrollar un sistema de verificación de edad efectivo no es
fácil y que ‘incluso los sistemas más avanzados a veces tendrán dificultades
para predecir la edad’.
Cuando el sistema en desarrollo identifique a usuarios
menores de 18 años, OpenAI los redirigirá automáticamente a una
experiencia modificada de ChatGPT que bloquee contenido sexual explícito e
incluya otras restricciones ajustadas a su edad. La compañía asegura
que ‘optará por la vía más segura’ cuando haya dudas sobre la edad de un
usuario, estableciendo por defecto la experiencia restringida y exigiendo a
los adultos verificar su edad para acceder a todas las funciones.
Qué permitirá el control parental de ChatGPT
En cuanto a los controles parentales que va a implementar,
permitirán que los padres vinculen sus cuentas con las de sus hijos
adolescentes (la edad mínima para usar ChatGPT es de 13 años) mediante
invitaciones por correo electrónico.
Una vez conectados, los padres podrán desactivar
funciones específicas, incluida la memoria de ChatGPT y el almacenamiento
del historial de chats, establecer horarios de bloqueo en los que los
adolescentes no puedan usar el servicio y recibir notificaciones cuando el
sistema ‘detecte’ que su hijo experimenta mucha angustia.
Esa última función incluye una advertencia importante:
OpenAI afirma que, en determinadas situaciones de emergencia en las que no se pueda
localizar a los padres, la compañía ‘podría involucrar a las fuerzas del
orden como siguiente paso’.
Los usuarios detectados como menores de 18 años serán redirigidos a una versión del chatbot con restricciones
OpenAI ha anunciado que está desarrollando un sistema automático de predicción de edad que determinará si los usuarios son mayores de 18 años. En caso de no serlo, los redirigirá a una versión de ChatGPT con restricciones de uso y apropiada para su edad. Junto con esta medida, la compañía también ha avanzado que los controles parentales del chatbot llegarán a finales de este mes de septiembre.
Adelantándose a las preocupaciones que una medida de este tipo puede levantar, Sam Altman, CEO de OpenAI, ha señalado que la empresa está priorizando explícitamente ‘la seguridad por encima de la privacidad y la libertad de los adolescentes’, incluso si esto significa que los adultos podrían necesitar verificar su edad para acceder a una versión menos restringida del servicio.
‘En algunos casos o países también podríamos pedir un documento de identidad. Sabemos que esto supone un compromiso de privacidad para los adultos, pero creemos que es una concesión que merece la pena’, afirma Altman. El CEO reconoce que ‘no todo el mundo estará de acuerdo con la forma en que estamos resolviendo ese conflicto’ entre privacidad del usuario y seguridad de los adolescentes.
El suicidio de un adolescente de 16 años
El anuncio llega semanas después del caso de un adolescente de 16 años, Adam Raine, que se suicidó tras tratar esta posibilidad con ChatGPT. Según la demanda presentada por la familia contra OpenAI, el chatbot proporcionó instrucciones detalladas, romantizó métodos de suicidio y desalentó al adolescente a pedir ayuda a su familia. El sistema de OpenAI registró 337 mensajes de sus conversaciones con el adolescente que fueron etiquetados como contenido de autolesiones y el propio chatbot mencionó el suicidio 1.275 veces en sus conversaciones con Raine. Pese a ello, los protocolos de seguridad del sistema no intervinieron ni notificaron a nadie.
El pasado mes de agosto, OpenAI reconoció que las medidas de protección de ChatGPT pueden fallar durante conversaciones largas, precisamente cuando los usuarios vulnerables más las necesitan. ‘A medida que la conversación se prolonga, partes del entrenamiento en seguridad del modelo pueden degradarse’, escribió la compañía entonces, señalando que, si bien ChatGPT puede derivar correctamente a usuarios a líneas de ayuda contra el suicidio al principio, ‘tras muchos mensajes a lo largo de un periodo prolongado podría acabar ofreciendouna respuesta que vaya en contra de nuestras salvaguardas‘.
‘Incluso los sistemas más avanzados a veces tendrán dificultades para predecir la edad’
OpenAI no ha especificado qué tecnología va a utilizar para adivinar la edad de los usuarios ni ha puesto una fecha a su despliegue. Reconoce que desarrollar un sistema de verificación de edad efectivo no es fácil y que ‘incluso los sistemas más avanzados a veces tendrán dificultades para predecir la edad’.
Cuando el sistema en desarrollo identifique a usuarios menores de 18 años, OpenAI los redirigirá automáticamente a una experiencia modificada de ChatGPT que bloquee contenido sexual explícito e incluya otras restricciones apropiadas para su edad. La compañía asegura que ‘optará por la vía más segura’ cuando haya dudas sobre la edad de un usuario, estableciendo por defecto la experiencia restringida y exigiendo a los adultos verificar su edad para acceder a todas las funciones.
Qué permitirá el control parental de ChatGPT
En cuanto a los controles parentales que va a implementar, permitirán que los padres vinculen sus cuentas con las de sus hijos adolescentes (la edad mínima para usar ChatGPT es de 13 años) mediante invitaciones por correo electrónico.
Una vez conectados, los padres podrán desactivar funciones específicas, incluida la memoria de ChatGPT y el almacenamiento del historial de chats, establecer horarios de bloqueo en los que los adolescentes no puedan usar el servicio y recibir notificaciones cuando el sistema ‘detecte’ que su hijo experimenta angustia aguda.
Esa última función incluye una advertencia importante: OpenAI afirma que, en determinadas situaciones de emergencia en las que no se pueda localizar a los padres, la compañía ‘podría involucrar a las fuerzas del orden como siguiente paso’.
Noticias de Tecnología y Videojuegos en La Razón