Chatgpt et santé mentale: les nouvelles garanties d'Openai pour protéger les utilisateurs

Chatgpt et santé mentale: les nouvelles garanties d’Openai pour protéger les utilisateurs

OpenII a annoncé l’introduction de nouvelles garanties de Chatgpt pour faire face aux risques liés à la santé mentale, après des cas dramatiques qui ont suscité de fortes critiques.

L’objectif est de reconnaître rapidement les signes de malaise émotionnelle, en particulier entre les adolescents, et de guider les conversations sur des chemins plus sûrs.

Comme Chatgpt fait face aux risques de santé mentale

Le nouveau système est basé sur un routage avancé qui dirige les conversations considérées à risque vers des modèles optimisés tels que le GPT-5, capable de fournir des réponses plus empathiques et cohérentes.

Cette approche a l’intention de réduire les problèmes critiques trouvés dans les modèles précédents, en particulier dans les dialogues longs ou répétés.

GPT-5 et santé mentale: améliorations de la sécurité émotionnelle

Avec le lancement de GPT-5 en tant que modèle prédéfini, OpenAI déclare une amélioration de 25% de la gestion des urgences de santé mentale par rapport à la version 4O.

Grâce à la nouvelle méthode de formation des « SAFE Fractions », le chatbot évite les réponses potentiellement nocives et réduit les phénomènes tels que la dépendance émotionnelle et la sycophance, offrant des réponses utiles mais dans les limites de sécurité.

Lisez aussi: L’IA est-elle une menace pour l’amour ou une nouvelle forme de relation?

Chatgpt et prévention du suicide

Un thème crucial concerne la prévention du suicide parmi les plus jeunes.

OpenI a précisé que, en cas de menaces de violence à d’autres, les conversations peuvent être transmises à une équipe spécialisée avec la possibilité de se présenter aux autorités.

Cependant, en cas d’auto-harm, la protection de la vie privée prévaut, favorisant des réponses sûres et des références aux ressources professionnelles sans activer des rapports externes.

Fonctionnalité de contrôle parental dans le chatppt

Pour renforcer la sécurité numérique des jeunes utilisateurs, OpenII introduit de nouvelles fonctionnalités de contrôle parental. À la fin de l’année, les parents pourront connecter les comptes des enfants, recevoir des avis en cas de signaux d’inconfort et gérer des fonctions telles que la chronologie du chat.

En outre, il sera possible de définir des règles d’utilisation et de désactiver des fonctions spécifiques, conformément aux recommandations d’un conseil consultatif composé d’experts pour les jeunes et le développement clinique.

La protection des jeunes utilisateurs

L’entreprise collabore avec plus de 90 médecins dans plus de 30 pays, dont des psychiatres et des pédiatres, et avec un groupe d’experts en santé mentale et interaction man-macrine.

L’objectif est de s’assurer que les nouvelles mesures de sécurité d’Openai pour Chatgpt reflètent les meilleures pratiques scientifiques et de répondre aux risques psychologiques liés à l’utilisation de chatbots.

Lire aussi: de plus en plus d’adolescents préfèrent les chatbots aux vrais amis

Risques psychologiques de l’utilisation de Chatbot AI

L’annonce d’OpenII fait partie d’un contexte d’attention croissante à la sécurité en ligne des mineurs, avec une pression également sur la méta et d’autres acteurs technologiques.

Les entreprises sont appelées à équilibrer l’innovation et la responsabilité, en évitant que les chatbots deviennent des outils de dépendance ou d’amplification de l’inconfort émotionnel, et se concentreront plutôt sur la prévention et le report des médias professionnels.