Humanisme numérique

Au défi de l’Intelligence artificielle affective


Titulaire de la chaire de recherche HUMAAINE (HUman-MAchine on Affective Interaction & Ethics) à Paris-Saclay, membre du Comité national pilote d’éthique du numérique (CNPEN) et membre du département Humanisme numérique du Collège des Bernardins, Laurence Devillers explore de manière novatrice les relations entre le numérique et la sphère des affects, avec une attention particulière aux problématiques éthiques impliquées.

Une idée reçue continue à circuler : le numérique relèverait de la rationalité, il n’aurait rien à voir avec l’affectivité et les affects. Pourtant, vous inscrivez votre travail dans le courant de l’affective computing. De quoi s’agit-il ? 

Les robots et les autres machines numériques construites pour imiter les apparences et les capacités de l’humain, son comportement et ses émotions, ont en fait très peu de choses à voir avec l’affectivité et les affects des humains. L’affective computing, encore appelé informatique émotionnelle, porte sur le développement de systèmes d’intelligence artificielle (IA) ayant les capacités de décrypter et d’exprimer des émotions grâce à des indices dans la voix, le visage, ou les gestes. C’est un domaine de recherche pluridisciplinaire couvrant les disciplines de l’informatique, de la psychologie et des sciences cognitives. 

L’informatique émotionnelle trouve son origine dans les travaux de Rosalind Picard, lancés en 1997 au laboratoire du Massachusetts Institute of Technology (MIT). Les systèmes actuels de synthèse émotionnelle sont très performants comparés à ceux de détection des émotions, qui sont encore très rudimentaires et ne reconnaissent que quelques expressions très caractéristiques. Les émotions sont complexes et idiosyncrasiques, propres à chaque individu. Elles sont par essence dynamiques, dépendent de notre culture, de notre éducation et du contexte dans lequel l’enregistrement est capturé. La prise en compte du contexte de l’interaction ainsi que la connaissance de la personne devraient rendre les systèmes actuels plus performants. La collecte massive de données et l’amélioration des capacités d’adaptation aux locuteurs devraient même, à terme, les rendre meilleurs que nous pour décrypter les émotions à partir de nos comportements comme les expressions du visage, les gestes, la posture, la voix et les messages énoncés.

Que signifient les mots « affect » ou « affectif » pour un robot ?

Les affects désignent des phénomènes comportementaux et expérientiels. Ces phénomènes, dénommés affectio en latin, dont les termes « affect » et « affectif » sont issus, désignent l’opération d’un ensemble de modalités psychologiques guidant les interactions de l’organisme avec son entourage. Ils ne sont pas toujours conscients et se manifestent par des impulsions, des actions, des pensées, des sentiments, mais aussi par l’apparition de réactions corporelles, comme l’augmentation du rythme cardiaque, les cris, les souffles, etc.

En informatique, les termes affect et émotion sont souvent confondus. Le concept d’émotion sert à indiquer des réponses complexes, c’est-à-dire composées de plusieurs réponses, qu’elles soient physiologiques, motrices, cognitives, affectives et/ou ressenties. Les émotions sont en premier lieu le produit conjoint de deux modalités déterminantes : l’évaluation et les intérêts ou buts de la personne. Les processus d’évaluation transforment les événements rencontrés, qui affectent les sens et le corps, en événements pourvus d’une signification pour le sujet, en fonction de ses intérêts et aussi d’une valeur affective (événement agréable, désagréable, ou encore indifférent). Le philosophe Baruch Spinoza a développé l’idée selon laquelle, au départ, l’homme n’a la connaissance ni de son corps, ni de son esprit. Il ne se connaît lui-même qu’à travers les affections de son corps et il n’accède à la conscience de soi qu’au prix d’un effort impliquant le développement de la raison et de la science intuitive. La machine n’ayant pas de corps, elle n’a pas d’affection, de ressentis et de conatus au sens de désir de vivre, comme le décrit Spinoza. Pour un robot qui n’a ni corps, ni esprit, ces événements peuvent déclencher des programmes qui simulent des affects. 

Et dans le cas d’un humain travaillant avec un robot, qui apprivoise qui ?

Certains robots sont très éloignés de la ressemblance au vivant. Pour d’autres, leurs concepteurs s’inspirent des formes, matières, propriétés, processus et fonctions du vivant et jouent sur le biomimétisme pour faciliter l’interaction avec les humains. La « vallée de l’étrange » (uncanny valley) est une image inventée dans les années 1970 par le roboticien japonais Masahiro Mori afin d’illustrer un phénomène psychologique : plus un robot d’apparence humanoïde est similaire à un être humain, plus nous l’adoptons, mais jusqu’à un certain point à partir duquel ses imperfections nous paraissent monstrueuses et nous conduisent à le rejeter. Ce qui est certain c’est que plus la forme est proche du vivant, plus il peut y avoir confusion. Par l’imitation du vivant et l’interaction affective, le robot peut brouiller les frontières avec l’humain. Pour un humain qui travaille avec un robot, le risque est de laisser la machine décider à sa place. L’humain a une capacité forte d’adaptation, il va s’adapter au robot s’il en voit l’utilité. L’inverse est beaucoup plus complexe.

Comment comprenez-vous la relation entre les affects et le domaine éthique ?

Pour les designers et concepteurs de systèmes d’IA affectifs se posent des questions éthiques : quelles fonctionnalités développées peuvent présenter des injustices, des discriminations ? Est-ce que des comportements d’isolement ou de manipulation par ces machines sont à craindre ? Quels garde-fous peut-on trouver entre l’utilisation débridée et la prohibition totale de ces systèmes ? La réflexion doit être menée conjointement par les différentes disciplines liées à la conception de ces machines et celles liées à l’analyse des usages à court et long terme. Les programmes incorporent les biais, les croyances et les stéréotypes propres à leurs créateurs et aux données utilisées pour l’apprentissage.

Pour éviter que nos biais préjudiciables se retrouvent transposés dans les algorithmes et que les algorithmes viennent en retour renforcer nos préjugés, il est nécessaire de se doter d’outils et de protocoles d’évaluation capables d’auditer les systèmes et d’analyser leurs données d’apprentissage.

Quels sont les principaux problèmes éthiques posés par l’affective computing ?

Parler avec les machines affectives nous permet d’interagir de façon très intuitive mais finalement trompeuse, car ce faisant nous les anthropomorphisons, nous leur prêtons même des sentiments inexistants. Les systèmes utilisant de l’affective computing sont le plus souvent à base de réseaux de neurones et d’auto-apprentissage. Ils sont appelés des « boîtes noires » car les causes d’une prédiction établie via leurs systèmes ne sont pas explicites. Les points de vigilance sont alors le contrôle des données : neutralité, diversité, justice et transparence ; et le contrôle de l’usage des systèmes à partir d’audits ou de tests dans des cas limites.
Au-delà de la prouesse technologique que cela représente, les questions de l’utilité d’une grande ressemblance des robots avec l’humain et de l’utilisation de l’affective computing doivent être posées. L’évaluation de ses effets doit être menée sur le court et le long terme, d’autant plus si ces robots sont amenés à aider des enfants ou des personnes fragiles.

Qu’est-ce qu’une manipulation douce ? Qu’est-ce que le risque de nudges ?

Les techniques de communication telles que l’influence ou la désinformation, visant potentiellement à persuader des personnes ou à influencer l’opinion publique, pourraient être amplifiées par l’arrivée des systèmes d’IA affectifs. Le nudge, qui se traduit par « coup de pouce » ou « incitation », est devenu une notion importante, relative à l’architecture des choix. L’attribution du prix Nobel d’économie à Richard Thaler, en octobre 2017, a contribué à mettre davantage en lumière l’approche des nudges. Le nudge marketing, ou marketing incitatif, consiste à inciter le consommateur à prendre de lui-même des décisions qui vont dans le sens souhaité par les concepteurs des systèmes.

Les auteurs des nudges partent du constat que nos comportements ne sont pas régis par la rationalité théorique, qui sous-tend l’économie classique, mais que notre nature humaine nous conduit souvent à emprunter des raccourcis simplificateurs. De plus, les circonstances de nos choix et notre environnement social ont une influence redoutable : par paresse, nous faisons souvent comme notre voisin ou nous prenons le choix par défaut. Le risque des nudges est de ne pas prendre le temps de réfléchir aux autres choix possibles et donc d’être dépendants des choix des concepteurs des systèmes d’IA.

La vie avec les robots affectifs risque-t-elle de produire une forme de dépendance douce ?

Les robots affectifs vont nous ressembler de plus en plus, simuler nos comportements, détecter nos affects et s’en servir pour nous aider à mieux gérer nos corps, être plus créatifs, nous sentir moins seuls. Vont-ils nous simplifier la vie jusqu’à la paresse, nous promettant de vivre dans un monde de satisfactions de besoins enfantins ? Nous pousser à aimer ce que nous aimons déjà ? Nous rendre suspicieux ou nous vendre des choses inutiles ? Un des points sur lesquels il faudrait s’éveiller est la coévolution humain-machine : ces systèmes et artefacts intelligents vont s’adapter à nous, et nous nous adapterons à eux. 

Quels sont les problèmes éthiques posés par l’immense vague de digitalisation provoquée par la pandémie de Covid-19 ?

Cette crise nous interroge sur notre rapport à l’IA et au numérique, qui sont partout dans nos vies. La situation de crise produite par le Covid-19 a conduit à une amplification des usages du numérique (cela a été flagrant par exemple en télémédecine) ainsi qu’à la création de nouveaux outils. Les outils numériques sont devenus quasiment essentiels d’un point de vue sociétal, économique et sanitaire, ce qui entraîne également des enjeux éthiques. Ces outils peuvent servir pour différents usages, notamment pour protéger, tester, isoler ou encore anticiper. Les exemples d’application sont nombreux : systèmes pour la recherche médicale afin de trouver des vaccins, analyses médicales à distance, télémédecine, robots désinfectant ou livrant médicaments et repas, outils pour fabriquer des masques, modéliser la propagation de la pandémie, tracer les contacts, faciliter l’information des équipes sanitaires ou du public, etc. 

La vague de digitalisation produite par le Covid-19 est substantielle. Les réponses données aux questions éthiques trouvent-elles une formulation efficace ?

L’efficacité d’une application dépend de l’adhésion de la population à son utilisation, qui repose elle-même sur la confiance accordée au dispositif. Cette adhésion ne peut se faire sans une information régulière, libre, accessible, loyale et transparente, bref une information sur l’éthique de ces systèmes. Cette information doit concerner la conception et le code de l’application, y compris les auteurs, la finalité de l’application ainsi que l’exploitation des données qu’elle collecte.

Il faut que chacun puisse être assuré que l’application ne fait que ce qu’elle est censée faire (ce qu’on appelle la « loyauté »). Or, les géants du numérique (les GAFAMI : Google, Apple, Facebook, Amazon, Microsoft, IBM) ne suivent pas toujours ces principes de transparence, de respect des données des utilisateurs et de consentement éclairé.

En particulier, la publication du code source de l’application est une condition élémentaire de transparence. La loyauté de l’information suppose que les termes employés pour décrire les aspects techniques apportent des éléments de compréhension pour tous. Le caractère volontaire et non contraignant de l’adoption d’un système est également fondamental. Il faudrait amplifier la possibilité d’expérimentation des systèmes pour comprendre leurs risques à court et long terme.

[...]

L'intégralité de l'interview