L’illusion technologique en sureté aéroportuaire – Le cas des détecteurs d’intention néfaste

ou
Comment perdre son esprit scientifique et gagner des budgets publics

En ce début d’année 2011, les autorités israéliennes ont annoncé la mise en place, à l’aéroport Ben-Gourion de Tel-Aviv, d’un nouveau système automatisé de contrôle pré-embarquement des passagers. Malgré sa technologie avancée, le système UniPass – actuellement en phase de test – vient renforcer un processus de contrôle centré sur des intervenants humains.

Tel n’est clairement pas le paradigme en Occident, où l’on cherche à tout prix à développer la panacée sécuritaire : la machine qui détecte les terroristes en lisant dans leurs funestes pensées.

L’affaire est tout ce qu’il y a de plus sérieux. Souvenons-nous que, dans les années 70, les services de renseignement américains étaient persuadés que les médiums et autres « psychics » pouvaient les aider à gagner la Guerre froide. Aussi avaient-ils financé des programmes d’espionnage via pouvoirs paranormaux !

L’aviation civile représente un marché colossal pour l’industrie de la sécurité. Les budgets fédéraux explosent, au sud du 49e parallèle et des Grands Lacs pour sonder le tréfonds de l’âme à la recherche de la personne malintentionnée. Sentant le bon filon (comprenez des millions de dollars de fonds publics), nombre de compagnies et même des universités se sont lancées dans ce créneau. Les responsables de ces projets se prévalent tous de titres de docteur en psychologie, ingénieur en électronique, professeur de physique… Mais cette caution scientifique n’est qu’apparente.

En effet, ces initiatives ont oublié en chemin le plus élémentaire esprit scientifique, à la fois dans le bien-fondé de leur théorie (1) et dans leurs protocoles d’expérimentation (2).

1 – Des programmes scientifiques non fondés… scientifiquement

Il existe aujourd’hui une foultitude de projets fondés sur cette soi-disant analyse de l’intention délictueuse. Nous n’en évoquerons ici que trois – retenus en raison de leur couverture  médiatique au cours des derniers mois.

1.1 – Future Attribute Screening Technology (FAST)

Intitulé à l’origine Project Hostile Intent, le système FAST est développé sous la férule du Department of Homeland Security (DHS) américain. Son but est de mettre au point un outil intégré dédié à la détection des personnes malintentionnées.

Le système comprend :

  • des senseurs enregistrant les rythmes cardiaque et respiratoire, ainsi que la température du visage (via la dilatation des vaisseaux capillaires),
  • des caméras étudiant la dilatation des pupilles, le mouvement et le clignement des yeux,
  • une Wii Balance, à savoir une planchette sensitive sur laquelle se tient la personne et qui mesure ses mouvements de balancier, d’un pied sur l’autre.

Le système FAST se révèle une version « améliorée » du détecteur de mensonges tel qu’utilisé par les services de police nord-américains. On pourrait penser que l’on dispose donc d’une base de connaissances scientifiques solides en la matière. Malheureusement, selon le National Research Council, ce n’est pas le cas : les preuves scientifiques de l’efficacité alléguée du détecteur de mensonges se font toujours attendre, plus de soixante ans après son apparition dans les commissariats de police américains.

Tout d’abord, le détecteur de mensonges ne détecte pas… les mensonges. Ni même les émotions. Il détecte des modifications dans la réponse physiologique d’un individu face à un stimulus. Problème : un même stimulus engendre des réponses physiologiques différentes selon les individus. Et pour espérer établir une réponse caractéristique d’une tendance, il faut calibrer la machine spécifiquement pour chaque individu. Cela nécessite une série de questions-test. Bref, le détecteur de mensonges confond allègrement réponse physiologique, mensonge et intention néfaste. Et c’est sans compter la réelle possibilité d’apprendre à tromper la machine.

Les créateurs du système FAST estiment pourtant être parfaitement capables de faire la différence entre un passager en retard pour prendre son avion et un terroriste prêt à le faire exploser en vol. Mais ces spécialistes oublient de préciser que la réponse variera d’un passager en retard à un autre et d’un terroriste porteur de bombe à un autre.

Les responsables du programme ne s’embarrassent pas de ces questions. Ainsi, leur système enregistre les mesures physiologiques de la personne avant qu’on lui pose des questions. Puis il les compare aux réponses physiologiques générées par les questions posées. Mais le système demeure incapable de déterminer si ces réactions sont le fait d’une gêne, d’une tentative de dissimulation, d’une surprise ou d’une impatience…

En contexte aéroportuaire, FAST serait utilisé pour interroger chaque passager lors du contrôle pré-embarquement. Et là, les difficultés se font jour rapidement :

  • Les passagers faussement détectés à qui on aura interdit de monter dans l’avion ne manqueront pas de poursuivre le DHS en réparation du préjudice subi. Dès lors, sur quel fondement l’administration américaine va-t-elle pouvoir justifier la discrimination ainsi opérée ?
  • Le point de contrôle FAST devra prendre des allures d’interrogatoire et nécessitera un environnement adapté. Comme nous le montre clairement ce document vidéo de la Sécurité intérieure étasunienne.


Or, dans le contexte de la sureté de l’aviation civile, il est proprement impossible de passer 4 minutes (temps maximum avancé par les développeurs du système) à contrôler chaque passager dans un environnement adapté.

FAST est donc développé sans la moindre stratégie d’utilisation en contexte aéroportuaire, au mépris des principes scientifiques qui veulent qu’une technologie soit  prouvée en théorie, puis testée avec succès en laboratoire avant d’être appliquée en situation réelle. Et tout cela pour 10 M$ par an issus de fonds publics.

1.2 – La compagnie WeCU

La compagnie israélienne WeCU a développé un système provoquant des stimuli visuels et auditifs et enregistrant les réponses physiologiques induites chez le sujet (rythmes cardiaque et respiratoire, température corporelle, mouvement des yeux).

Ainsi, au contrôle pré-embarquement d’un aéroport, lorsque vous verrez l’image d’Oussama Ben Laden soudain projetée sur un écran devant vous, ou lorsque entendrez un mot arabe évoquant le jihad, votre réaction physiologique diffèrera de celle d’un terroriste salafiste.

Quelle bonne idée ! Seuls problèmes :

  • Là encore, les constantes physiologiques varient d’un individu à l’autre.
  • Pour espérer limiter de façon acceptable le taux élevé de faux positifs, la technique impose de mener un véritable interrogatoire, ce qui s’avère tout simplement impossible dans le contexte du contrôle pré-embarquement dans les aéroports.
  • Comment est censé réagir un terroriste salafiste ? Réagit-il différemment selon qu’il a été ou non sensibilisé à la technologie en question ? En quoi réagit-il différemment d’un passager lambda ?
  • Et surtout, où sont les preuves scientifiques qui attestent le bien-fondé de la technologie ?

Et pourtant, le DHS américain s’est rapidement déclaré très intéressé par le système. Plusieurs aéroports seraient déjà en pourparlers avec la compagnie.

1.3 – Un projet universitaire

La Wright State University (WSU) a lancé en octobre dernier un projet pour la mise au point d’une machine détectant les microexpressions du visage et d’autres réponses physiologiques trahissant les intentions néfastes d’un individu. Les chercheurs en psychologie ont ainsi mis au point une nomenclature de vingt expressions du visage : la peur, le dégout, la colère, la surprise,…

Cette théorie psychologique renvoie aux travaux du Dr Paul Ekman. Les professeurs de la WSU sont peut-être des amateurs de la série télévisée Lie To Me, qui s’inspire de ses travaux.

Mais on s’attendrait à ce que ces universitaires soient avant tout des scientifiques.

Tout d’abord, de l’aveu même d’un professeur associé, le projet vise à pousser plus loin le célèbre détecteur de mensonges (proverbial lie detector). Un appareil qui, on l’a vu, ne constitue pas la meilleure des cautions scientifiques.

Ensuite, si les micro-expressions faciales sont un tant soit peu révélatrices dans un contexte d’interrogatoire policier, il n’en est rien en ce qui concerne la détection de bad guys dans les aéroports. On voit notamment assez mal en quoi le dégout et la surprise sont des critères pertinents de repérage d’un terroriste au contrôle pré-embarquement.

Par ailleurs, si les micro-expressions faciales sont provoquées par des questions telles que :

  • Êtes-vous un terroriste ?
  • Amenez-vous à bord de l’avion un objet dangereux ?
  • Êtes-vous en lien avec une organisation religieuse intégriste ?

on n’est pas plus avancé… Comme l’explique parfaitement Paul Ekman lui-même :

One of the things I teach is never ask a question that can be answered yes or no.

De plus, les responsables du projet reconnaissent que le système de caméras qui observent les expressions faciales s’avère inefficace :

  • en condition de faible éclairage ;
  • à grande distance ;
  • si l’individu n’est pas filmé sous un angle satisfaisant ;
  • si l’individu porte une barbe ou des lunettes ;
  • si son visage est masqué par une casquette ou un chapeau.

Enfin, et surtout, la théorie des micro-expressions faciales demeure une théorie : elle n’a jamais été prouvée scientifiquement.

Cela n’empêche pas des universitaires de récupérer – sans légitimité scientifique – un budget public préliminaire de 1,13 million de dollars… au nom de la science.

Outre qu’ils ne sont pas pertinents sur un plan technologique, ces différents projets perdent toute crédibilité scientifique au vu des protocoles mis en place pour tester leur efficacité en pratique.

2 – Quand jouer un méchant signifie être un méchant

Le pire affront à l’esprit scientifique que nous font tous ces chercheurs repose sans le moindre doute dans la façon de prouver simultanément l’efficacité de leur théorie et de leur mise en application. Des expérimentations ont en effet été menées sur le terrain dans deux des trois initiatives présentées. À l’issue de ces tests :

Résultats prometteurs, direz-vous ? Bien au contraire…

Premièrement, en termes statistiques, et contrairement aux apparences, ces taux sont affreusement bas.

Imaginons que l’on cherche à détecter un terroriste qui se cache parmi une foule de 3000 personnes et ce, à l’aide d’une machine fiable à 90%. Le taux d’erreur est donc de 10%. Cela signifie que sur les 3000 personnes contrôlées, 300 seront considérées comme des terroristes potentiels. La chance pour qu’une personne détectée soit effectivement le terroriste recherché est donc de 1 sur 300 soit environ… 0,3 % !

Deuxièmement, ce genre de déclaration soulève quelques questions légitimes :

  • Combien de « gentils » ont été faussement détectés ? Repérer 95 % des personnes malintentionnées est facile si vous sonnez l’alarme pour 95 % de toutes les personnes testées. Mais dans ce cas, vous allez aussi faussement détecter 95 % de personnes inoffensives ! Ce genre de pratique poserait de sérieux problèmes en contexte aéroportuaire.
  • Comment les chercheurs ont-ils pu savoir que les 95 % détectés étaient des bad guys ?
  • Comment ont-ils pu savoir que 5 % des « méchants » ont échappé au système ?

En fait, les tests de FAST et de WeCU ont été menés avec des figurants qui personnifiaient des gentils et d’autres des méchants. Aucun véritable criminel ou terroriste n’a donc participé aux tests. C’est là que le bât blesse.

Comment un système de détection de réponse physiologique peut-il être efficace pour détecter des bad guys, lorsqu’il ne fait que détecter des figurants qui jouent les bad guys ?

Déjà que l’on ignore comment réagit physiologiquement un terroriste. Alors comment un acteur pourrait-il respirer, transpirer, tressaillir comme un terroriste ?

Les responsables des tests du programme FAST ont ainsi recrutés (à leur insu) 144 personnes qui pensaient assister à un salon de haute technologie. À cet effet, ils ont été conduits à passer sous le portique FAST. Sur ces 144 personnes, 23 ont été désignées comme « bad guys » : préalablement à leur passage, on leur a remis un « disrupting device » (comprenez un objet dangereux pour la sureté de l’aviation civile). Ces 23 individus se sont vus confier la « mission » de passer cette arme à travers le point de contrôle.

Or, tous les policiers le savent, qui ont laissé des proches prendre en main leur arme de service : confier un pistolet automatique (même non chargé) à une personne qui n’en a jamais tenu un, et vous allez immanquablement constater un changement notable dans sa réponse physiologique (sudation, pulsations cardiaques, dilatation des capillaires du visage,…). Pour les responsables du programme FAST, cela signifierait ipso facto que cette personne est malintentionnée !

Par ailleurs, nul besoin d’être spécialiste en psychologie comportementale pour repérer au premier coup d’œil un individu lambda qui surjoue son rôle de bad guy au point de contrôle…

Les tests des programmes du DHS américain et de la compagnie WeCU reposent donc sur une béante faille méthodologique. Mais cela n’a pas pour autant arrêté les responsables du projet de la Wright State University, lesquels prévoient prochainement de tester leur système… avec des acteurs.

Conclusion

Le chef d’œuvre du cinéma de science-fiction Blade Runner met en scène, en l’an 2019, une section spéciale de la police de Los Angeles chargée d’éliminer des androïdes extrêmement sophistiqués, des réplicants, exilés dans les colonies spatiales et déclarés illégaux sur Terre.

Pour détecter ces réplicants, les blades runners mènent sur leurs suspects des interrogatoires à l’aide d’un appareil spécial : la machine de Voight-Kampff mesure les rythmes cardiaque et respiratoire, la dilatation de la pupille et des vaisseaux capillaires du visage d’un sujet soumis à une série de questions spécifiques. Ces questions ont été établies pour générer chez le sujet une réponse émotionnelle basée sur l’empathie. La machine de Voight-Kampff a pour but de détecter une réponse émotionnelle non conforme à celle attendue d’un être humain.

Nous parlons ici d’un film de science-fiction. Pourtant, l’imaginaire machine de Voight-Kampff s’avère bien mieux fondée scientifiquement que n’importe lequel des trois projets précédemment décrits !

En effet, cet outil fictif ne cherche qu’à mesurer une réaction émotionnelle, sans chercher à lui donner une signification psychologique.

Dans le monde réel, les responsables des projets susmentionnés déclarent être capables de faire mieux. Après tout  comme chacun sait, la réalité dépasse souvent la fiction…

Mais si la machine de Voight-Kampff, utilisée pour détecter des androïdes, n’avait été préalablement testée que sur des humains, nous ne lui accorderions aucun crédit. Pourquoi devrions-nous en accorder davantage à un appareil censé repérer des terroristes sans avoir été testé sur aucun d’entre eux ?

Cet article est également publié sur le blogue @éroNote.

À propos de Arnaud Palisson

Arnaud Palisson, Ph.D. fut pendant plus de 10 ans officier de police et analyste du renseignement au Ministère de l'intérieur, à Paris (France). Installé à Montréal (Canada) depuis 2005, il y a travaillé dans le renseignement policier puis en sureté de l'aviation civile. Il se spécialise aujourd'hui dans la sécurité de l'information et la protection des renseignements personnels.