— Vol. 3: Digitization, 42 News
Leave a comment

„Selbst der beste Akademiker, der kritischste Journalist ist manipulierbar.“

0 1 #2 Detail © Max Dauven

0 1 #2 Detail © Max Dauven

Wie unterscheiden wir Relevantes von Irrelevantem? Wissenschaftsjournalist Ranga Yogeshwar spricht im 42-Interview über den Überfluss an Informationen und warum es wichtig ist, diesen zu filtern. Neben seiner Forderung, Algorithmen offenzulegen, weist er auf die positiven Seiten der Digitalisierung hin und ermutigt, die Früchte der Digitalisierung nicht nur für ökonomische Zwecke zu nutzen.

Herr Yogeshwar – als Physiker und Wissenschaftsjournalist befinden Sie sich oftmals an der Quelle von Forschung und Innovation. Wann wurde Ihnen zum ersten Mal bewusst, mit welcher Kraft die Digitalisierung unser Leben verändern wird?

Ich habe sehr früh angefangen zu programmieren. Ende der siebziger Jahre baute ich meinen ersten Computer. Ich glaube, ich war einer der ersten in Deutschland, der E-Mails schreiben konnte. Das große Problem damals war, dass kaum jemand einen E-Mail-Account hatte. Damals wurde mir klar, dass das Internet die Grammatik der Kommunikation verändert wird.

Erleben wir momentan also eine Revolution?

Wir erleben den Anfang einer Revolution, deren Konsequenzen zum Teil noch nicht absehbar sind. Als der Buchdruck erfunden wurde, war man plötzlich in der Lage, Kommunikation zu vervielfältigten. Im Grunde genommen machte das erst die Reformation von Martin Luther möglich. Ohne Druckerpresse hätte es sie in dieser Form nicht gegeben. Als das Internet kam, war es daher überhaupt nicht überraschend, dass diese neue Kommunikationstechnologie ein riesiges Potential hat, das Miteinander in einer Gesellschaft zu verändern.

An welche Veränderung denken Sie konkret?

Ein einfaches Beispiel: Wir führen gemeinsam ein Interview, dieses Interview wird am Ende schriftlich erscheinen. Ob das in 15 Jahren noch so sein wird, ist unsicher, weil es schon heute Technologie in Form von intelligenten Assistenten gibt, die Sprache direkt als Input nehmen, nicht mehr den geschriebenen Text. Am Buchmarkt erleben wir, dass Hörbücher gelesenen Büchern Konkurrenz machen. Wenn Menschen heute ein Bedienungsproblem haben und sie eine Anleitung brauchen, schauen sie sich YouTube-Videos an. Es ist also durchaus denkbar, so unglaublich es klingt, dass wir uns hin zu einer Post-Textgesellschaft bewegen, wir vielleicht in 20 bis 30 Jahren eine Kultur etablieren, in der das geschriebene Wort in der Form, wie wir es heute kennen, ersetzt wird – durch Sprache, durch Videos, vielleicht durch etwas Anderes.

„Kommunikation ist mehr als ein Geschäftsmodell“

Geht der Gedanke an eine Post-Textgesellschaft, an eine Kultur ohne Text und Schrift, nicht etwas weit?

Er geht sehr weit. Darüber nachzudenken hat aber wichtiges Potential: Weil wir zum Beispiel merken, dass in einer zunehmend komplexen Welt die Schnittstelle des sogenannten Mensch-Maschinen-Interface immer einfacher gestaltet wird. Beim ersten Telefon brauchte man für die Bedienung eine Betriebsanleitung. Heute sind Bedienoberflächen intuitiv konzipiert und in der Lage, uns in gewisser Weise eine virtuelle Grammatik zu offenbaren. Es ist nicht ausgeschlossen, dass sich dieser Trend in Zukunft verstärken wird.

Was bedeutet das für das Individuum?

Das hat natürlich intellektuelle Konsequenzen. Die Entwicklung der Sprache, die geschriebene und gelesene Sprache, war das Instrument der Aufklärung. Wer schreibt, arbeitet auch an einem gewissen Destillationsprozess der Gedanken, die sich beim Schreiben sortieren. Das Schreiben ist ein Vehikel – nicht nur der Kommunikation, sondern auch der Reflexion. Was passiert, wenn in ein paar Jahren eine große Mehrheit der Menschen nicht mehr liest, sondern Videos guckt oder mit Apparaten redet, ist nicht abzusehen.

Welche Auswirkungen könnte diese Entwicklung denn auf die Gesellschaft haben?

Einerseits ist die Artikulation des Einzelnen in Form von Sprache, in Form von geschriebenen Worten, etwas phänomenal Einfaches. Auf der anderen Seite ist es phänomenal kompliziert. Lesen bedeutet, einen Code – Buchstaben –zu dechiffrieren, und das bedeutet eine Menge Arbeit. Es ist viel einfacher, wenn ein Apparat diese Aufgabe übernimmt oder dir jemand ein Video zeigt. Aber Sprache ist Bestandteil einer denkenden Gesellschaft. Möglicherweise werden wir an einigen Stellen eine Renaissance der Schriftsprache sehen. Meine Sorge ist, dass wir irgendwann eine Aufspaltung erleben in eine Gesellschaft, in der ein kleiner Teil schreibt, vielleicht programmiert, vielleicht gestaltet – und ein großer Teil konsumiert, nicht mehr schreibt, sondern nur noch zuhört.

… und nicht mehr denkt?

Und vielleicht anders denkt. Vor 100 Jahren war mehr Information gleichbedeutend mit mehr Demokratie. Das große Thema der Zensur bestand darin, dass man Informationsströme kappte und damit dem Volk Informationen vorenthielt. Das war natürlich nicht gut. Heute aber finden wir fast die Umkehrung dessen, einen Überfluss an Informationen. Das ist ein großer Nachteil, denn dieses „Mehr“ an Information wird zu einem Informationsmeer, zu einem Ozean: Es fällt uns zunehmend schwer, Relevantes von Irrelevantem zu unterscheiden.

„Soziale Medien profitieren davon, falsche Dinge zu zeigen“

Welche Rolle spielen soziale Netzwerke in dieser Informationsflut?

Es ist das Geschäftsmodell sozialer Netzwerke, so zu operieren, dass Nutzer möglichst lange in ihrem Ökosystem verweilen und sie so möglichst viel Werbung zeigen können. Was man heute aufgrund vieler Untersuchungen weiß, ist, dass die Zugkraft von lauten Meldungen, vielleicht sogar falschen Meldungen, sehr hoch ist. Das bedeutet, dass soziale Medien davon profitieren, falsche Dinge zu zeigen. Ein konkretes Beispiel bietet eine Untersuchung des MIT, des Massachusetts Institute of Technology: Eine falsche Twitter-Meldung erreicht sechs Mal schneller 1500 Leute als eine wahre Geschichte. Das führt dazu, dass wir in der Medienlandschaft eine sonderbare Aufgeregtheit erleben, die nicht unbedingt immer mit Wahrheit einhergeht. Früher war die Informationsbeschaffung das große Problem – künftig wird es die Informationsfilterung, das Destillieren auf Relevanz oder Signifikanz sein.

Wer wird dafür zuständig sein, diese Informationsfilter zu entwickeln?

Das ist eine spannende und aktuelle Debatte. Wer im April 2018 die Kongressanhörung von Marc Zuckerberg verfolgt hat, konnte sehen, dass zwar genau diese Frage im Raum stand, sie jedoch nicht explizit beantwortet wurde. Implizit sagte Zuckerberg aber, dass er in Zukunft mithilfe von künstlicher Intelligenz in der Lage sein wird, Fake-News automatisiert aufzuspüren und zu löschen, terroristische Gruppen zu identifizieren, möglicherweise den gesamten Prozess der Informationsfilterung vorzunehmen. Diese Aussage wurde aber nicht hinterfragt. Kann es sein, dass heute ein soziales Netzwerk, das weltweit über zwei Milliarden Menschen verbindet, selber zum Zensor wird? Was hätte das für Konsequenzen für verschiedene Kulturen? Was man in den USA sagen kann, darf man nicht immer in Deutschland sagen. In Ländern wie Ägypten oder China sieht das nochmal anders aus.

„Früher war die Informationsbeschaffung das große Problem, künftig wird es die Informationsfilterung sein“

Wie könnte so eine Regelung aussehen, beispielsweise in Deutschland?

In Deutschland könnte man eine staatliche Stelle einrichten. Das wäre aber gefährlich, denn dann würden wir einen Apparat der Zensur bauen. Brauchen wir vielleicht eine unabhängige Stelle? Die „Öffentlich-Rechtlichen“? Nach welchen Kriterien sollte gefiltert werden? Wer definiert, was Fake-News sind und was nicht? Wie können Mechanismen sicherstellen, dass wir auch in Zukunft wahre Informationen zulassen? Und zwar auch dann, wenn sie einen Standpunkt vertreten, der nicht dem Mainstream entspricht. Wir brauchen diese Debatte.

Denken Sie, dass die Politik die Relevanz dieser von Ihnen geforderten Debatte bereits erkannt hat?

Nein, die Politik hat diese Relevanz überhaupt nicht erkannt. Das konnte man detailliert bei der Anhörung Zuckerbergs sehen. Der tatsächliche Mangel an Informiertheit in der Politik war bemerkenswert. Dort saßen offensichtlich Menschen, von denen die wenigstens selbst einen Facebook-Account besitzen und die deshalb sonderbare Vorstellungen von sozialen Medien hatten. Tragisch ist, dass sie es dadurch nicht geschafft haben, die wirklich entscheidenden Fragen zu stellen. Niemand hat gefragt oder festgestellt, nach welchen Kriterien Algorithmen arbeiten. Oder wie es um das Phänomen der Selbstverstärkung steht. Wenn ökonomische Gründe Fake-News verstärken, dann hat das einen konkreten Einfluss auf die Gesellschaft und kann möglicherweise sogar politische Wahlausgänge bestimmen.

Also sollte nicht die Politik für den richtigen Umgang mit Daten verantwortlich sein, sondern eine unabhängige Organisation?

Das Internet und die sozialen Medien konfrontieren uns mit denselben Fragestellungen wie ganz zu Beginn des Buchdrucks. Zunächst gab es da nämlich Wildwuchs. Dann schaltete sich Rom ein und die Zensur wurde etabliert mit all den daraus resultierenden Konsequenzen eines Indexes und einer echten Zensur. Im Grunde passierte das, weil Rom damals behauptete, es würden Lügen publiziert. Daraus müssen wir lernen und Stellung beziehen. Es darf keine Institution geben, die den Informationsfluss nach politischen Interessen steuert. Auf der anderen Seite ist es aber eine gesamtpolitische Aufgabe, eine unabhängige Instanz zu etablieren, die genau dies tut.

Was schlagen Sie vor?

Da gibt es verschiedene Möglichkeiten. Ein Zensor ist eine Möglichkeit. Man kann das Ganze aber auch juristisch angehen und unsere Gesetze im Hinblick auf Fake-News verschärfen. Wenn Institutionen Nachrichten herausgeben, die vielleicht desaströse Konsequenzen haben und die vielleicht für die Politik missbraucht werden, dann würden sie dafür bestraft. So langsam wird klar, dass der Wildwuchs, die unbegrenzte Information ohne Filter, nicht mehr funktioniert.

Wo sollte Ihrer Ansicht nach die Grenze gezogen werden?

Es existieren bereits eine Menge guter Gesetze. Wir müssen uns klarmachen, dass das Internet und soziale Netzwerke die mediale Fließrichtung umkehren. Aus Massenmedien sind die Medien der Massen geworden. Individuen werden plötzlich zum Massenmedium. Wir haben Begriffe wie Influencer etabliert, einzelne Personen, die so viele Follower haben, dass sie im wahrsten Sinne des Wortes „beeinflussen“. In den klassischen Pressegesetzen gibt es eine klare Trennung zwischen Werbung und Programm. Werbung muss gekennzeichnet werden. Viele Influencer sind de facto Dauerwerbesendungen. Das muss klar zu erkennen sein.

Wie verändert der digitale Raum das Verhältnis von Medium und Konsument?

In Zukunft werden wir nicht mehr nur über Medien im klassischen Sinne, sondern auch über die Spuren, die wir bei der Nutzung digitaler Inhalte hinterlassen, reden müssen. Wenn wir früher ein Buch gelesen haben, taten wir das ganz für uns auf der grünen Wiese. Heute wird alles, was wir elektronisch lesen, protokolliert. In anderen Worten: Das Buch liest uns. Wer diesen Artikel publiziert liest, offenbart beim Lesen seine eigenen Daten. All das ist im Moment noch nicht ausreichend rechtlich geregelt. Zusätzlich haben wir gemerkt, dass wir mit diesem Targeting auch politische Haltungen erfassen können, ähnlich wie es die Werbung auch tut. Die Option also, jemanden dazu zu verführen, in diesem Falle nicht etwas zu kaufen, sondern jemanden zu wählen. Wir erleben das erste Mal in der Geschichte eine Konfrontation des Bürgers mit einer enorm potenten Maschinerie, die in der Lage ist, tatsächlich zu manipulieren. Jetzt wird der ein oder andere vielleicht sagen: „Das wird mir nicht passieren.“ Und ich denke, das ist der größte Fehler. Selbst der beste Akademiker, der kritischste Journalist muss sich bewusstmachen, dass er manipulierbar ist.

Welche Gefahren birgt die digitale Infrastruktur, wenn sogar besonders kritische Köpfe von ihr manipuliert werden können?

Es gab ein Facebook-Experiment, das in den Kongressanhörungen nur ein einziges Mal kurz angesprochen wurde. Facebook hat geschaut, was man erreichen kann, wenn man einem User positive oder eher negative Nachrichten im News-Feed anzeigt. Wir reden also nicht nur von intellektueller Manipulation, wir reden von emotionaler Manipulation. Dieses Experiment, nur peripher behandelt, offenbart enormes Potential. Die große Gefahr dabei ist, dass diese Manipulation nicht auf den Bereich des Konsums begrenzt bleibt. Sie wird auch von Nationen missbraucht, die, natürlich bedingt durch die digitale Infrastruktur, in der Lage sind, in kürzester Zeit ihre Bürger zu bewerten. Das probiert man bereits in China. Es ist möglich geworden, Bürger vollständig zu kontrollieren. Dass wir das begreifen, ist enorm wichtig. Die digitale Infrastruktur, die tolle Möglichkeiten bietet, kann gleichermaßen ein extrem gefährlicher Nährboden für Diktatoren und autoritäre Systeme werden. Dieser Gefahr müssen wir uns bewusst werden.

Bald könnte es dank technischer Hilfsmittel die Möglichkeit geben, menschliches Verhalten vorherzusagen. Was würde das in diesem Kontext bedeuten?

Ja, das sogenannte Predicting ist einer der nächsten Schritte. Werbung versucht, den Menschen zu beeinflussen, aber wir können aktuell noch nicht wissen, ob die Manipulation auch funktioniert. In dem Moment, in dem ich den nächsten Schritt antizipieren kann, habe ich einen sehr viel stärkeren Zugriff auf den Konsumenten. Prediciting wird in anderen Bereichen bereits intensiv angewendet, denn es ist nicht nur die Werbung, die du anklickst. Wenn du eine Nachricht schreibst, schlägt dir das Mobiltelefon bereits die nächsten Wörter vor. Bei genauerem Hinsehen merkst du, dass die Vorschläge gar nicht so blöd sind. In wenigen Jahren wird die Software durch Machine-Learning ziemlich genau wissen, was du schreiben wirst. Präzise vorherzusagen, was du tun wirst, ist also der nächste Schritt. Wenn es so weit ist, brauchen wir einen neuen Ausdruck. Nicht mehr „ich möchte“, sondern „ich werde gemöchtet“.

Welche Folgen hätte das?

Jeder kann sich heute schon fragen: Wieso habe ich diesen Pullover gekauft? Wieso habe ich diese Urlaubsreise gebucht? Oft, wenn wir wirklich darüber nachdenken, merken wir, dass ein Werbespot oder ein Influencer uns dazu verleitet hat. Weil auf diese Art und Weise ein künstliches Bedürfnis verstärkt wurde. So etwas gab es auch früher. Der große Unterschied ist aber, dass wir heute durch die gigantische maschinelle Unterstützung in der Lage sind, diese Prozesse extrem individuell auszuführen. Damit gibt es heute eine Form der Kontrolle, die nicht mehr so offensichtlich ist wie früher. Ich erinnere mich noch an die Zeit in der UdSSR: Es gab große Lautsprecheranlagen, und allmorgendlich tönte ein Radioprogramm über die Straßen. Jeder wusste: Das ist Propaganda. Das Schlimme ist, dass die heutige Propaganda nicht mehr so offensichtlich ist.

Ist es vielleicht gerade deshalb an der Zeit, die positiven Seiten der Digitalisierung zu nutzen?

Nun, der erste Punkt ist, dass die digitale Entwicklung in der Frühphase des Internets im Wesentlichen ökonomisch getrieben war. Wenn man im Silicon Valley mit den Unternehmern spricht, wird immer die gleiche Frage gestellt: „What‘s the business model?“. Das gesamte Handeln, die unzähligen Apps, die sozialen Netzwerke, die Suchmaschinen, die Videoplattformen sind im Kern alle ökonomische Modelle mit dem Ziel, Geld zu verdienen. Langsam ist es aber tatsächlich an der Zeit zu begreifen, dass Kommunikation weit mehr ist als ein Geschäftsmodell. Wenn das einmal klar wird, merken wir, dass es vielleicht noch ganz andere Freiheitsgrade gibt. Und wir kennen ein paar! Ein Beispiel ist Wikipedia. Wikipedia ist ein Modell, bei dem eher die Wir-Gesellschaft im Vordergrund steht; wo Menschen gemeinsam versuchen, anderen Wissen zugänglich zu machen. Es gibt viele Initiativen, die nicht der Bereicherung des Einzelnen dienen, sondern dem Wohl der Mehrheit. Vielleicht ist es an der Zeit, das Ruder herumzureißen und zu sagen: „Wir haben die Chance, die Früchte dieser digitalen Kultur sowohl für ökonomische Zwecke als auch für ganz andere zu nutzen.“

Und der zweite Punkt?

Die Kosten für die Vervielfältigung eines Produktes, die Grenzkosten, schrumpfen im digitalen Raum auf ein Minimum. Wenn ich heute einen Text schreibe und ihn im Internet verbreite, dann sind die Grenzkosten annähernd null. Das heißt, wir entwickeln uns möglicherweise zu einer Kultur, in der sich klassische ökonomische Entitäten auflösen; in einigen Bereichen kommen wir in eine Null-Grenzkosten-Welt. Das wäre sozusagen ein Ideal, und das Internet wäre dann tatsächlich eine Bereicherung für viele.

Trotzdem gibt es viele Skeptiker …

… die zum Beispiel sagen, wir sollten uns von sozialen Netzwerken fernhalten. Aber ich halte das für den falschen Schritt, denn sie bergen ein enormes Potential. Es ist wie bei ganz vielen Technologien ein Einschwingvorgang. Noch gibt es kaum Regeln, und wir fangen gerade erst an, die Frage zu stellen, wer sie etablieren sollte. Meiner Ansicht nach ist das die Aufgabe des Staates. So ähnlich wie vor mehr als 100 Jahren, als die Automobile auf die Straße kamen und man merkte: So können wir nicht weiterfahren. Wir brauchen Verkehrsregeln, wir brauchen Straßenschilder, wir brauchen Verkehrsampeln. Dafür war der Staat zuständig. So sollte es auch hier sein.

Was muss Ihrer Ansicht nach dringend getan werden?

Wir sind gerade dabei, die nötigen Rahmenbedingungen zu schaffen. Das Bewusstsein dafür, dass wir an der ein oder anderen Stelle mehr tun müssen als in der Vergangenheit, ist definitiv da. Zum Beispiel bei der Monopolisierung im digitalen Raum: Heute läuft dort alles nach dem Motto „The winner takes it all“ mit der Folge, dass es nur die eine große Suchmaschine gibt – nämlich Google – und nur das eine große soziale Netzwerk – Facebook. Verankert in der Wirtschaft haben wir das Kartellrecht. So langsam ist es an der Zeit, dass wir es auch im digitalen Raum anwenden. Meine persönliche Meinung ist, dass ab einer bestimmten Relevanz der Daten Algorithmen offengelegt werden müssten. Weil man in einer demokratischen Gesellschaft nicht zulassen kann, dass Informationsströme intransparent von einem privatrechtlichen Unternehmen gesteuert werden.

Interview: Katharina Tesch

Digitalisierung

Ranga Yogeshwar ist Diplomphysiker, Wissenschaftsjournalist, Autor und Moderator. Er beschäftigt sich eingehend mit der digitalen Revolution und den Auswirkungen der künstlichen Intelligenz, so zum Beispiel auch in seinem im Oktober 2017 erschienenen Buch „Nächste Ausfahrt Zukunft“.

Leave a Reply

Your email address will not be published. Required fields are marked *

This site uses Akismet to reduce spam. Learn how your comment data is processed.