Technologies biométriques : le Défenseur des droits pointe les risques



Anton Kunin
20/07/2021

Les technologies biométriques (reconnaissance faciale, stockage et lecture d’empreintes digitales, biométrie vocale) ne suscitent pas l’enthousiasme du Défenseur des droits, loin de là. Dans un rapport sur le sujet, l’institution met en avant plusieurs types de problèmes qui pourraient potentiellement surgir lors de leur utilisation.


Des technologies porteuses de nouvelles discriminations à l’embauche

Des technologies de reconnaissance faciale étonnement fiables existent déjà dans le monde. En France, leur adoption soulève de nombreuses interrogations éthiques. Dans un rapport publié le 19 juillet 2021, le Défenseur des droits apporte sa pierre à l’édifice en pointant les risques de dérives et l’entorse au principe d’égalité dont elles sont porteuses. Dans l’hypothèse où un logiciel d’évaluation des émotions serait utilisé dans le cadre d’un entretien d’embauche, par exemple, certains candidats verraient leurs chances d’être embauchés réduites, le logiciel qualifiant (faussement, peut-être) leurs caractéristiques psychologiques incompatibles avec le poste.

Le Défenseur des droits s’alarme aussi du caractère probabiliste de cette technologie : elle repose sur l’emploi d’algorithmes présentant un certain taux de faux-positifs comme de faux-négatifs. Atteindre un taux d’erreur qui serait nul est tout simplement impossible. Cela pourrait engendrer des problèmes de l’ordre de sécurité des biens : ainsi, un dispositif d’authentification par reconnaissance vocale déployé pour contrôler l’accès à un compte bancaire en ligne peut commettre une erreur dans la vérification de l’identité de la personne s’étant servie du dispositif.

Reconnaissance faciale : sur la voie publique, les citoyens ne seraient pas en mesure de s’y opposer

La présence d’un certain taux d’erreur, aussi infime soit-il, peut également avoir des conséquences graves en cas d’utilisation de cette technologie par la police dans le sens où certaines personnes pourraient se faire arrêter injustement si le logiciel les confond au délinquant véritable. « En s’intéressant de près aux profils des personnes victimes de ces erreurs, de nombreuses études ont démontré dès 2018 qu’il s’agissait majoritairement de personnes issues de groupes discriminés et/ou vulnérables (femmes, enfants mineurs, personnes transsexuelles, personnes à la peau foncée, entre autres) en raison des biais discriminatoires des algorithmes sur lesquels reposent ces technologies », alerte le Défenseur des droits.

Enfin, se pose le problème du consentement : étant déployées dans les lieux publics ou sur la voie publique, ces technologies biométriques d’identification et d’évaluation ne permettent pas aux citoyens de s’opposer à leur utilisation ou de leur préférer une voie alternative : les données biométriques de chaque passant sont traitées de manière indifférenciée.