Magazine, Vol. 3: Passage au numérique
Leave a comment

« Même le meilleur universitaire, même le journaliste le plus critique est manipulable »

0 1 #2 Detail © Max Dauven

Comment distinguer le pertinent du non pertinent ? Dans son interview avec le Magazine 42, le journaliste scientifique Ranga Yogeshwar nous parle du surplus d’informations et de la raison pour laquelle il est si important de le filtrer. En plus de demander la divulgation des algorithmes, il attire notre attention sur les effets positifs de la numérisation. Il nous aussi encourage de ne pas utiliser les fruits de la numérisation uniquement à des fins économiques.

 


 

Monsieur Yogeshwar – en tant que physicien et journaliste scientifique, vous vous trouvez fréquemment à la source de la recherche et de l’innovation. Quand avez-vous réalisé à quel point la numérisation allait changer notre vie ?

J’ai commencé très tôt à programmer. C’est à la fin des années soixante-dix que j’ai construit mon premier ordinateur. Je pense que j’ai été l’un des premiers en Allemagne à pouvoir écrire des mails. À l’époque, le gros problème était que presque personne n’avait d’adresse mail, et c’est à ce moment-là que j’ai réalisé que internet changerait la grammaire de la communication.

Vivons-nous aujourd’hui une révolution ?

Nous vivons aujourd’hui le début d’une révolution, dont on ne peut prévoir toutes les conséquences. Quand l’imprimerie a été inventée, on a soudain été en mesure de décupler les moyens de communication. À vrai dire, c’est ce qui a rendu possible la Réforme de Martin Luther, car, sans la presse à imprimer, la Réforme n’aurait pu voir le jour telle qu’on la connaît. Quand internet est arrivé, personne n’a donc été surpris du potentiel immense de cette nouvelle technologie de communication quant à la modification des rapports sociaux.

À quelle modification pensez-vous concrètement ?

Un exemple relativement simple : en ce moment, nous menons un entretien qui paraîtra sous forme écrite. Mais nous ne savons pas si ce sera la même procédure dans 15 ans. Aujourd’hui déjà, il existe une technologie prenant la forme d’assistants intelligents qui reconnaissent la parole plutôt que le texte écrit. Par rapport au marché du livre, nous voyons que les livres audio font concurrence au format classique. Un autre exemple : aujourd’hui, quand quelqu’un n’arrive pas à se servir de quelque chose et qu’il a besoin d’instructions, il va en chercher sur YouTube. On peut ainsi envisager, aussi peu probable que cela puisse paraître, que nous entrions dans un monde sans textes. Peut-être que dans 20 à 30 ans, l’écriture telle que nous la connaissons sera remplacée par une culture faite de parole, de vidéos, ou de quelque chose de similaire.

Est-ce que l’idée d’une société sans textes, d’une culture sans écriture, ne va pas trop loin ?

Elle va très loin. Mais y réfléchir ouvre de nombreuses portes : on entrevoit par exemple le fait que, dans un monde de plus en plus complexe, l’interface homme-machine n’a cessé d’être simplifiée. Quand le premier téléphone est arrivé, on avait besoin d’une notice d’utilisation pour s’en servir. Aujourd’hui, les interfaces d’utilisateurs sont particulièrement intuitives et nous donnent accès, dans une certaine mesure, à une grammaire virtuelle. À l’avenir, il n’est pas à exclure qu’une telle tendance se renforce.

Qu’est-ce que cela signifie concrètement pour l’individu ?

Principalement, cela implique des conséquences d’ordre intellectuel. Le développement de la langue écrite a été l’instrument par excellence du siècle des Lumières. Quand quelqu’un écrit, on peut dire qu’en même temps il travaille à un processus de distillation et d’organisation de ses idées. L’écriture est un vecteur pour la communication, mais également pour la réflexion. On ne peut prévoir ce qui se passerait si, dans quelques années, une grande majorité des gens cessait de lire, et se contentait de regarder des vidéos ou de parler avec des machines.

Quels peuvent être les effets de ce développement sur la société ?

D’une part, l’expression de l’individu, par le biais de la parole et de l’écrit est quelque chose d’incroyablement simple. D’autre part, c’est aussi incroyablement complexe. Lire, c’est déchiffrer un code (des lettres), et cela représente beaucoup de travail. C’est beaucoup plus facile de laisser cette tâche à une machine, ou de regarder une vidéo. Mais la langue – il faut le rappeler – fait partie intégrante d’une société pensante. On assistera probablement à une renaissance de la langue écrite à certains égards, mais mon inquiétude est que nous vivions, tôt ou tard, une séparation de la société entre une minorité qui sait écrire et éventuellement programmer, et une majorité qui consomme, qui n’écrit plus et se contente d’écouter.

Une majorité qui ne pense plus ?

Ou peut-être autrement. Il y a 100 ans, plus d’informations était équivalent à plus de démocratie. La censure consistait à couper les flux d’informations pour les rendre inaccessibles au peuple. Évidemment, ce n’était pas une bonne chose. Mais aujourd’hui nous avons presque affaire au contraire, il y a trop d’informations. C’est un gros inconvénient quand on voit que le volume d’informations s’accroît de plus en plus et qu’il devient un océan d’informations : il est de plus en plus difficile de distinguer le pertinent du non pertinent.

« Même le meilleur universitaire, même le journaliste le plus critique doit prendre conscience du fait qu’il est manipulable »

 

Quel rôle jouent les réseaux sociaux en ce qui concerne ce débordement d’informations ?

Le modèle commercial des réseaux sociaux consiste à opérer de telle sorte que les utilisateurs restent le plus longtemps possible dans leur écosystème. Ils peuvent ainsi leur montrer autant de publicité que possible. Grâce à un grand nombre de recherches, nous savons aujourd’hui que l’influence d’une information sur les réseaux, même si elle est fausse, est extrêmement élevée. Cela signifie que les réseaux sociaux profitent du fait de répandre de fausses information.

Un exemple concret : selon une étude du MIT (Massachusetts Institute of Technology), un message faux sur Twitter peut atteindre 6 fois plus rapidement 1500 personnes qu’une histoire vraie. En résulte le fait qu’on observe une agitation étrange dans le paysage médiatique, qui n’est pas nécessairement liée à de vraies informations. Avant, le plus gros problème était la collecte d’informations ; à l’avenir, ce sera le filtrage d’informations, il s’agit de faire la distinction entre le pertinent et le non pertinent.

Qui doit prendre la responsabilité de créer ces filtres d’informations ?

C’est un débat passionnant et très actuel. Ceux qui ont suivi l’audition de Mark Zuckerberg au Congrès en avril 2018 ont pu voir que, bien que cette question ait été posée, on n’a pas pu y répondre explicitement. La réponse de Zuckerberg a été plutôt implicite, quand il a dit qu’il serait capable de repérer et de supprimer automatiquement – à l’aide de l’intelligence artificielle – les Fake-News, d’identifier les groupes terroristes, et éventuellement de réguler tout le processus de filtrage des informations. Personne n’a remis en question cette déclaration. Est-il possible qu’un réseau social, connectant deux milliards d’êtres humains dans le monde entier, décide lui-même de la censure ? Quelles en seraient les conséquences pour les différentes cultures ? Tout ce qu’on peut dire aux États-Unis ne peut pas être dit en Allemagne. Des pays comme la Chine ou l’Égypte se trouvent aussi dans une situation particulière.

À quoi pourrait ressembler une telle réglementation en Allemagne par exemple ?

En Allemagne, on pourrait instituer un organisme gouvernemental. Mais ainsi nous créerions un outil de censure et cela serait dangereux. Est-ce que nous aurions besoin, peut-être, d’une instance indépendante ? Une instance relevant du droit public ? Mais selon quels critères faudrait-il filtrer ? Qui définit ce qui est une Fake-News et ce qui n’en est pas ? Comment les mécanismes peuvent-ils s’assurer qu’à l’avenir, les informations vraies seront encore tolérées ? Et ce, alors qu’elles présentent un point de vue différent de la société dominante ? Nous avons besoin d’un tel débat.

Pensez-vous que la politique a déjà reconnu l’importance de ce débat que vous réclamez ?

Non, la politique n’a pas du tout reconnu son importance. On a pu le constater de près pendant l’audition de Zuckerberg. L’absence d’informations en ce qui concerne la politique était étonnante. Il y avait là de toute évidence des personnes dont seule une minorité possédait un compte Facebook. On parle ainsi de personnes qui se font une idée décalée des réseaux sociaux. Ce qui est tragique, c’est que ça explique qu’ils n’aient pas réussi à poser les questions vraiment importantes. Personne n’a demandé ou constaté selon quels critères les algorithmes fonctionnent. Personne n’a même pas posé la question du phénomène de l’auto-renforcement [Selbstverstärkung]. Lorsque des causes économiques renforcent les Fake-News, on peut constater l’influence que ça a sur la société. Cela peut même déterminer les résultats d’élections politiques.

Voulez-vous dire que ce n’est pas à la politique d’agir, mais que c’est la responsabilité d’une organisation indépendante de prendre soin du bon traitement des informations ?

Avec internet et les réseaux sociaux, nous sommes confrontés aux mêmes problèmes qu’auparavant avec l’imprimerie. Au début, il y a eu une croissance incontrôlée des informations. À cause de ça, Rome est intervenue pour établir la censure, avec toutes les conséquences que peut avoir un index. La raison à tout ceci était que Rome prétendait que l’on publiait des mensonges. Nous devons tirer une leçon de cela, et prendre position. Il ne doit pas y avoir d’institution qui contrôle la circulation de l’information selon des intérêts politiques. D’autre part, c’est une grande mission de la politique que d’établir une autorité indépendante, qui fasse exactement cela.

Que proposez-vous ?

Il existe plusieurs options. Parmi elles, celle d’un censeur. Une autre solution pourrait être de nature juridique, en s’orientant vers un durcissement de la législation concernant les Fake-News. Supposons qu’une institution publie des informations qui provoquent des effets désastreux et dont la politique peut abuser, alors les institutions seraient punies. Peu à peu, on commence à comprendre que la croissance incontrôlée des informations, sans aucun filtre, ne fonctionne plus.

Où devrait être placée la limite, d’après vous ?

Nous avons déjà beaucoup de bonnes lois. Nous ne pouvons pas oublier que internet et les réseaux sociaux modifient l’écoulement du flux médiatique. Les médias de masse sont désormais les médias de la masse. Les individus sont le nouveau support de communication. On a adopté de nouveaux termes comme « influenceur », pour parler des personnes ayant tellement de followers qu’ils « influencent », en effet, au sens propre du terme. Dans la réglementation classique de la presse, il existe une séparation très stricte entre publicité et programme. La publicité doit y être signalée en tant que telle. Beaucoup d’influenceurs ne sont en fait que des émissions publicitaires, et cela doit être clairement pointé du doigt.

Comment la sphère numérique modifie-t-elle la relation entre médias et consommateurs ?

À l’avenir, nous devrons non seulement parler des médias au sens classique, mais aussi et surtout des traces que nous laissons en utilisant le contenu numérique. Si, dans le passé, nous lisions un livre pleine nature, c’était uniquement pour nous. Aujourd’hui c’est différent – aujourd’hui tout ce que nous lisons au format électronique est enregistré. En d’autres termes : nous ne lisons plus le livre, mais le livre nous lit. Qui lit cet article alors qu’il est publié, livre ce faisant ses propres données. Tout cela n’est pas encore réglementé de manière suffisante. On a aussi remarqué qu’avec un tel ciblage [Targeting], on pouvait identifier des convictions politiques, de la même façon que le fait la publicité. Ainsi, il existe la possibilité, non pas d’inciter les personnes à acheter quelque chose, mais de les inciter à voter pour un candidat. Pour la première fois dans l’Histoire, nous vivons une situation qui oppose les citoyens à une machinerie au potentiel immense, capable de les manipuler concrètement. Certes on peut penser : « moi, ça ne m’arrivera pas ». Et je pense que c’est l’erreur la plus grave. Même le meilleur universitaire, même le journaliste le plus critique doit prendre conscience qu’il est manipulable.

« Avant, le plus gros problème était la collecte d’informations ; à l’avenir, ce sera le filtrage d’informations »

 

Quels sont les dangers de l’infrastructure numérique, quand même les esprits les plus critiques peuvent être manipulés ?

Il y a eu une expérience sur Facebook, qui n’a été évoquée qu’une seule fois pendant le congrès. Facebook a voulu découvrir ce qu’il est possible de faire en envoyant des messages soit positifs soit négatifs dans le flux d’actualités des utilisateurs. Nous ne parlons pas ici seulement de manipulation intellectuelle, mais aussi de manipulation émotionnelle. Cette expérience, restée marginale, nous dévoile un potentiel immense. Le grand danger ici, c’est que la manipulation ne se limite pas au domaine de la consommation. Les nations également, grâce à l’infrastructure numérique, peuvent abuser de cette force pour évaluer leurs citoyens. En Chine par exemple, c’est déjà en phase d’essai. Il est maintenant possible de contrôler entièrement les citoyens. Il est extrêmement important que l’on comprenne cela. L’infrastructure numérique, qui nous offre des moyens formidables, peut devenir en même temps un terreau périlleux pour les dictateurs et les systèmes autoritaires. C’est un danger, dont nous devons être conscients.

Bientôt, il devrait être possible de prédire le comportement humain grâce à des moyens techniques. Qu’est-ce que cela signifierait dans ce contexte ?

Le Predicting serait en effet une des prochaines étapes. La publicité essaye d’influencer les gens, mais nous ne pouvons pas savoir aujourd’hui si cette manipulation fonctionne. À partir du moment où je peux anticiper la prochaine étape, j’ai une emprise bien plus forte sur le consommateur. Dans d’autres domaines, le Predicting est déjà appliqué, ce n’est pas seulement la publicité sur laquelle on clique. Par exemple, en tapant un message, le portable nous propose déjà les mots suivants. En y regardant de plus près, on remarque que ces propositions ne sont pas si stupides. Dans quelques années, grâce au développement du machine learning, le logiciel saura exactement ce que l’on va écrire. L’étape suivante sera de prédire avec exactitude nos actions. Quand cela arrivera, nous aurons besoin d’une nouvelle expression. Ce ne sera plus « je veux faire… », mais « on veut de moi que je fasse… ».

Quelles en seraient les conséquences ?

Aujourd’hui, chacun de nous peut se demander : pourquoi est-ce que j’ai acheté ce pull ? Et pourquoi ai-je réservé ce voyage ? Quand on y réfléchit, on réalise que c’est souvent un influenceur ou une publicité qui nous y a incité. De cette façon, un besoin artificiel a été renforcé. Cela existait aussi auparavant. La grande différence tient au fait qu’aujourd’hui, grâce à l’aide de machines, on est capable d’entreprendre cette action au niveau individuel. Ainsi, il existe une forme de contrôle qui n’est pas aussi évidente qu’autrefois. Je me souviens que du temps de l’URSS, il y avait des grandes installations de haut-parleurs. Chaque matin, un programme de radio résonnait et tout le monde le savait : ça, c’était de la propagande ! Ce qu’il y a de plus grave, c’est qu’aujourd’hui la propagande n’est plus si évidente.

Peut-être le moment est-il venu de mettre les aspects positifs de la numérisation à contribution ?

Et bien, dans un premier temps il faut dire qu’au début d’internet, l’évolution numérique a essentiellement été tournée vers l’économie. Quand on parle avec les entreprises de la Silicon Valley, la question est toujours la même : « What’s the business model ? » Tout le commerce, les applications innombrables, les réseaux sociaux, les moteurs de recherche, les plateformes vidéos – tous sont au fond des modèles économiques, dont le but est de gagner de l’argent. Mais peu à peu, il devient temps de réaliser que la communication est plus qu’un simple modèle d’affaires. Une fois que cela est clairement établi, nous remarquons qu’il existe encore d’autres degrés de liberté. Nous en connaissons quelques-uns ! Un exemple connu est Wikipedia. Dans le cas de Wikipedia, il s’agit d’un modèle dont la priorité est notre société. Ici, les gens, et seulement les gens, essayent de rendre accessible du savoir à tout le monde. Il existe de nombreuses initiatives qui servent au bien-être de la majorité, plutôt qu’à l’enrichissement de particuliers. Peut-être est-il temps d’inverser la tendance et de dire : « nous avons la chance d’utiliser les fruits de la culture numérique tout aussi bien à des fins économiques qu’à de toutes autres fins. »

Et dans un second temps ?

Les coûts de reproduction d’un produit, les coûts marginaux, se réduisent à un minimum en ce qui concerne le domaine numérique. Lorsque j’écris un texte et que je le publie sur internet, les coûts marginaux sont presque à zéro. En d’autres termes, nous sommes en train de développer une culture dans laquelle les entités économiques n’existent plus. Dans certains domaines, nous atteignons un monde sans aucun coût marginal. Ce serait un idéal, et ainsi internet serait en effet source d’enrichissement pour beaucoup de gens.

Il reste cependant tant de sceptiques…

…qui affirment par exemple qu’on doit se tenir éloigné des réseaux sociaux. Je considère qu’il s’agit d’un faux pas, car les réseaux sociaux contiennent un énorme potentiel. Comme pour une grande partie des technologies, il s’agit d’un état transitoire. On a actuellement peu de règles, on commence seulement à chercher à savoir qui doit les mettre en place. Selon moi, c’est le rôle de l’État. Aujourd’hui au même titre qu’il y a cent ans, quand on a vu l’arrivée des premières automobiles et quand on a constaté qu’on ne pouvait pas continuer à conduire ainsi. Nous avons besoin de règles de conduite, de panneaux et de feux de signalisation. L’État était responsable de cela. Il devrait aussi l’être dans ce contexte-là.

« Les réseaux sociaux profitent du fait de pouvoir répandre de fausses informations »

 

Selon vous, que faudrait-il faire de toute urgence ?

Nous sommes déjà en train de créer des conditions générales. La conscience du fait que nous devons faire plus que dans le passé est ancrée. Par exemple, en ce qui concerne la monopolisation dans le domaine numérique : aujourd’hui, tout fonctionne d’après la devise « the winner takes it all ». Mais cela implique de n’utiliser qu’un seul moteur de recherche – Google – et un seul réseau social – Facebook. En économie, la législation sur les cartels est bien ancrée. Progressivement, le moment arrive de l’appliquer au domaine numérique. Personnellement, je pense qu’à partir d’une certaine pertinence des informations, les algorithmes doivent être rendus publics. Dans une société démocratique, personne ne peut tolérer que les flux d’informations soient commandés par une entreprise de droit privé, sans aucune forme de transparence.

Interview : Katharina Tesch

Traduction :  Barbara Pregler

 

 

Ranga Yogeshwar est diplômé d’études supérieures de physique, journaliste scientifique, auteur et présentateur de métier. Il s’intéresse de près à la révolution digitale et aux conséquences de l’intelligence artificielle. Son livre, paru en octobre 2017 sous le titre Nächste Ausfahrt Zukunft, traite de ces sujets.

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *