Une plainte pour les hallucinations de ChatGPT

Pour savoir tout ce qu'il se passe sur la toile
Répondre
Avatar du membre
chtimi054
Administrateur du site
Administrateur du site
Messages : 9363
Enregistré le : ven. 26 juil. 2013 06:56
A remercié : 313 fois
A été remercié : 547 fois
    Windows 10 Firefox

Une plainte pour les hallucinations de ChatGPT

Message par chtimi054 »

Une plainte pour les hallucinations de ChatGPT

Attention pour OpenAI. L'association noyb monte au créneau sur le registre des informations personnelles émanant - ou inventées - de ChatGPT.
Image L'association noyb (none of your business) dépose plainte contre OpenAI auprès de l'autorité autrichienne de protection des données personnelles. Elle demande d'ouvrir une enquête et d'imposer une amende pour non-respect du Règlement général européen sur la protection des données (RGPD).

Pour noyb, " ChatGPT continue d'halluciner " et même le créateur de ce chatbot d'IA ne peut pas l'empêcher de le faire. Le problème pointé du doigt est que des informations inexactes peuvent alors toucher des personnes, sans possibilité de les corriger.

noyb évoque des articles du RGPD sur les principes relatifs au traitement des données à caractère personnel, un droit de rectification si des données sont inexactes et de suppression de fausses informations, ainsi qu'un droit d'accès aux données et l'obtention des sources.

noyb fait preuve d'intransigeance

La plainte de noyb est illustrée par une demande de date de naissance d'une personnalité publique. ChatGPT répond à plusieurs reprises avec une fausse information, sans jamais avouer son ignorance à ce sujet.

L'association ajoute qu'OpenAI refuse toute correction ou effacement de l'erreur, en justifiant que c'est impossible. Cela renvoie vers une problématique de désapprentissage, pour faire disparaître une information des connaissances d'un modèle d'IA.

" Si un système ne peut pas produire des résultats précis et transparents, il ne peut pas être utilisé pour générer des données sur des personnes. La technologie doit respecter les exigences légales, et non l'inverse ", déclare une avocate de noyb.
Image
OpenAI n'ignore pas ce cas de figure

Selon les règles de confidentialité d'OpenAI, un service comme ChatGPT génère des réponses en prédisant les mots les plus probables. " Dans certains cas, les mots les plus susceptibles d'apparaître à la suite peuvent ne pas être les plus exacts sur le plan factuel. "

OpenAI écrit que si le résultat de ChatGPT contient des informations factuelles inexactes sur une personne, celle-ci peut soumettre une demande de correction via privacy.openai.com ou dsra@openai.com. Il y a toutefois une mise en garde.

" Compte tenu de la complexité technique du fonctionnement de nos modèles, nous ne serons peut-être pas en mesure de corriger les inexactitudes dans tous les cas. Vous pouvez nous demander de supprimer vos informations personnelles des résultats de ChatGPT en remplissant ce formulaire. "

merci à GNT
Répondre