Alors que l’IA s’impose dans tous les aspects de la vie quotidienne, sa capacité à interagir avec les jeunes soulève des enjeux majeurs. La décision d’OpenAI fait suite à des incidents préoccupants, dont une plainte déposée après le suicide d’un adolescent lié à une utilisation prolongée de ChatGPT. Ce drame a mis en lumière les risques psychologiques des chatbots et la nécessité d’outils clairs pour protéger les utilisateurs vulnérables. Pour les adolescents, les mesures sont strictes. ChatGPT bloque automatiquement les conversations à caractère sexuel ou flirteuses et refuse toute discussion sur le suicide ou l’automutilation, même dans un cadre créatif. Des alertes seront envoyées aux parents en cas de situation critique, et les autorités pourront être contactées si un danger imminent est détecté. OpenAI met également en place un système de prédiction d’âge et des outils parentaux comme les « blackout hours » pour limiter l’utilisation nocturne ou excessive.
L’association des comptes des adolescents avec ceux des parents reste le moyen le plus fiable pour une supervision efficace. Pour les adultes, la liberté d’expression demeure prioritaire, avec la possibilité d’explorer des contenus sensibles de manière encadrée. Cependant, l’identification fiable des mineurs reste un défi technique, surtout que les jeunes maîtrisent souvent mieux les outils numériques que leurs parents, un constat partagé mondialement et en Afrique. En adoptant ces mesures, OpenAI entend définir un standard éthique pour l’industrie de l’IA, plaçant la sécurité des adolescents au cœur de ses priorités. Pour le continent africain, ce cadre peut inspirer la création de régulations nationales et renforcer la sensibilisation à une utilisation responsable des technologies numériques. Ces nouvelles règles montrent que l’avenir de l’IA, repose sur la capacité à concilier innovation technologique et impératifs éthiques pour protéger les générations futures.