OpenAI renforce la sécurité des enfants sur ChatGPT avec un nouveau système de prédiction de l'âge

OpenAI renforce la sécurité des enfants sur ChatGPT avec un nouveau système de prédiction de l’âge

Depuis des années, la protection de l’enfance sur les plateformes numériques repose presque exclusivement sur l’âge autodéclaré. Un modèle simple mais fragile. Aujourd’hui, OpenAI annonce un changement de paradigme : un système de prédiction automatique de l’âge arrive sur ChatGPT, conçu pour identifier les utilisateurs de moins de 18 ans sans se fier à ce qu’ils déclarent au moment de leur inscription.

La fin de l’âge auto-déclaré

Le choix découle d’un constat explicite : l’auto-déclaration n’est pas un indicateur fiable à grande échelle. Le nouveau système s’inscrit dans le cadre du Teen Safety Blueprint et des principes des moins de 18 ans, dans le but d’offrir des protections proactives sans nécessiter d’interventions manuelles de la part des utilisateurs.

Comment fonctionne le système de prédiction d’âge de ChatGPT

Le nouveau modèle n’utilise pas de données biométriques, de documents personnels ou d’informations sensibles. Au lieu de cela, il analyse les modèles au niveau du compte pour estimer si un utilisateur peut être mineur.

Le système prend en compte des éléments tels que l’historique d’utilisation, les heures d’activité et une série de signaux comportementaux qui, au fil du temps, ont tendance à être corrélés à des groupes d’âge spécifiques. Il s’agit d’une approche basée sur les risques, conçue pour équilibrer la protection et le respect de la vie privée.

Protection sans identification directe

Le point clé est que l’âge n’est pas « vérifié » au sens traditionnel du terme, mais déduit. OpenAI vise à protéger les jeunes grâce à leur empreinte numérique, en évitant l’utilisation d’une date de naissance facilement falsifiée.

LIRE AUSSI : Meta conteste les interdictions des réseaux sociaux pour les adolescents et nie tout lien avec la santé mentale

Ce qui change pour les moins de 18 ans sur ChatGPT

Lorsqu’un compte est identifié comme appartenant à un adolescent, l’expérience sur ChatGPT change en temps réel. Le système applique une série de garde-corps automatiques qui modifient le comportement du modèle.

Les filtres de contenu deviennent plus stricts, l’accès aux sujets pour adultes est limité et les réponses adoptent un ton plus éducatif, informatif et solidaire. Le but n’est pas de réduire l’utilité de l’outil, mais de l’adapter à l’âge de l’utilisateur.

Une expérience conçue pour l’école et la créativité

Les nouvelles protections sont conçues pour que ChatGPT reste utile pour les études, les devoirs et la créativité, tout en minimisant le risque d’exposition à des contenus inappropriés ou potentiellement dangereux.

Le risque de faux positifs

OpenAI reconnaît qu’aucun système prédictif n’est parfait. Certains utilisateurs adultes peuvent être classés à tort comme mineurs, ce qui entraîne une expérience limitée.

C’est pour cette raison qu’une solution de compensation a été introduite. En cas de limitation d’âge inappropriée, l’utilisateur peut lancer un processus de vérification unique via Persona, en utilisant un selfie ou un document officiel pour restaurer l’accès complet.

Un nouveau modèle de protection de l’enfance grâce à l’intelligence artificielle

Cette mise à jour marque une rupture nette avec la logique « taille unique » qui a caractérisé la modération des plateformes numériques ces dernières années. L’âge devient une variable dynamique, intégrée directement dans le fonctionnement du logiciel.

OpenAI répond ainsi aux demandes croissantes des régulateurs, des parents et des institutions, qui réclament des environnements numériques plus sûrs pour les jeunes. Dans un contexte où l’IA s’invite de plus en plus dans les écoles et dans la vie quotidienne, la sécurité ne peut plus être facultative ou manuelle.

LIRE AUSSI : ChatGPT et santé mentale : les nouveaux garde-fous d’OpenAI pour protéger les utilisateurs

Bien-être numérique et IA adaptative

Le nouveau système de prédiction d’âge représente une étape vers une sécurité adaptative, capable de façonner l’expérience en fonction de la maturité de l’utilisateur.

Il ne s’agit pas seulement de prévention, mais aussi de bien-être numérique, compris comme un équilibre entre l’accès à la technologie et la protection des personnes les plus vulnérables.

Avec cette démarche, OpenAI tente de créer un environnement dans lequel l’intelligence artificielle est non seulement puissante, mais aussi responsable, en reconnaissant que derrière chaque invite se cache une personne et que tout le monde n’a pas les mêmes besoins ni le même niveau de maturité.