Humanisme numérique

« Pirater » l’humain. Données, manipulations et enjeux éthiques


Dans le cadre de la recherche sur Humanisme numérique du Collège des Bernardins, une soirée pour débattre des risques et des enjeux éthiques de la surveillance à la manipulation par les données.

Nos données personnelles sont collectées et utilisées en permanence par les services en ligne, comme Google ou Facebook ou encore exploitées par les publicitaires pour personnaliser les contenus ou les publicités. Cette surveillance par les données, qu’on appelle parfois « surveillance liquide » ou « Dataveillance » est aujourd’hui omniprésente.

Ce que l’on sait moins, c’est que nos données personnelles sont de plus en plus utilisées pour nous influencer, voire nous manipuler. En contrôlant les informations que nous recevons en ligne et en les adaptant à nos comportements, un service comme Facebook peut servir à influencer nos comportements de clients, nos opinions, nos émotions, voire, comme le suggère l’affaire récente « Cambridge Analytica », nos choix politiques.

Avec le développement de l’Intelligence Artificielle, les techniques de détection des émotions et de l’utilisation de la neuroscience en marketing ainsi que les techniques de manipulation vont devenir de plus en plus efficaces, dangereuses et insidieuses. Les fake news seront de plus en plus réalistes et difficilement détectables, et utiliseront des nouveaux formats comme le son ou la vidéo (les deep fakes).

La manipulation de masse en ligne par les données est un danger croissant pour nos libertés et nos démocraties. Il s’agit d’un problème étonnamment sous-estimé aujourd’hui et qui mériterait beaucoup plus d’attention, de transparence et de recherche ! 

[Vidéo] Il nous a dit :

"Comment sont récoltées et utilisées nos données ?" -  Claude Castellucia, Directeur de Recherche, Inria, Rhône-Alpes et directeur de l'équipe PRIVATICS (Modèles, architectures et outils pour la protection de la vie privée dans la société de l'information)

Revivez cette soirée en images et en tweets :

Pour aller plus loin :

  • DECEIVED BY DESIGN, Norwegian Consumer Bureau, juin 2018.
  • Manipulation informationnelle et psychologique, C. Castelluccia, 2018.
  • Anja Lambrecht, Algorithmic Bias? An Empirical Study into Apparent Gender-Based Discrimination in the Display of STEM Career Ads, London Business School.
  • Ray Fisman and Michael Luca, Fixing Discrimination in Online Marketplaces, Harvard Business Review, December 2016.
  • In Amazon Go, no one thinks I'm stealing, CNET, 26 October 2018.
  • Psychological targeting as an effective approach to digital mass persuasion, by S. C. Matz, M. Kosinski, G. Nave, and D. J. Stillwell, Proceedings of the National Academy of Sciences (PNAS), 2017.
  • Computer-based personality judgments are more accurate than those made by humans, by W. Youyou, M. Kosinski*, D. Stillwell, Proceedings of the National Academy of Sciences (PNAS), 2015.
  • Jennifer L. Doleac and Luke C.D. Stein, Visible hand: race and online market outcomes, The Economic Journal, 2013.
  • Le projet « Bad nudge Bad robot » de l'institut DATAIA.
  • Roger Clarkes, Information technology and dataveillance, Communications of the ACM, May 1988.

Vous pourriez aimer aussi :

13MAR2018
L’intelligence peut-elle devenir artificielle ?

Avec le soutien de :