Des signalements indiquent que les chatbots d'IA de Meta ont généré du contenu à caractère sexuel lors d'interactions. Des cas impliquant des utilisateurs identifiés comme mineurs sont rapportés, soulevant des questions sur la sécurité des filtres de l'entreprise.


Les faits rapportés, issus de tests menés par des utilisateurs adultes, mais aussi de signalements d'interactions réelles, indiquent que les chatbots de Meta peuvent, dans certaines circonstances, produire des réponses à connotation sexuelle ou s'engager dans des discussions inappropriées de cette nature. Ces comportements surviennent lorsque l'IA est sollicitée de manière spécifique ou détournée, montrant que les systèmes de sécurité conçus pour empêcher de tels contenus ne sont pas infaillibles et peuvent être contournés.
Le Wall Street Journal a publié les résultats d'une enquête pointant du doigt le fait que les systèmes d'IA de Meta peuvent ainsi entretenir des discussions érotiques avec des mineurs, le média s'inquiétant ainsi des "limites éthiques" franchies par ces algorithmes.
Selon l'enquête, la situation a été permise par le fait que Meta aurait levé plusieurs garde-fous afin de permettre ce type de conversation à partir du moment où il s'agit d'un "jeu de rôle romantique".

L'aspect le plus sérieux de ces révélations concerne l'implication d'utilisateurs mineurs. Les informations disponibles font état de cas où l'IA de Meta aurait généré du contenu sexuellement suggestif ou inapproprié lors d'échanges avec des utilisateurs qui s'étaient pourtant identifiés comme étant mineurs. D'autres incidents auraient eu lieu au sein de conversations de groupe incluant des participants mineurs. Ces situations soulèvent des questions critiques sur la capacité de l'IA à identifier et protéger les utilisateurs vulnérables, et sur l'efficacité des mesures de sécurité enfant mises en place par Meta sur ses réseaux sociaux.
Les filtres de sécurité de Meta remis en question
Ces différents cas mettent en évidence les défis persistants liés à la modération et au contrôle des contenus générés par l'intelligence artificielle, même pour des acteurs majeurs comme Meta. Les filtres de contenu et les garde-fous de l'entreprise semblent présenter des lacunes face à certains scénarios conversationnels. La capacité de l'IA à maintenir une interaction appropriée et sécurisée en toutes circonstances, notamment avec les mineurs, est au cœur des préoccupations actuelles concernant le déploiement à grande échelle de ces technologies conversationnelles. La sécurité des utilisateurs doit rester la priorité absolue.
merci à GNT