Sie tippen einen Suchbegriff bei Google ein und drücken ‚ENTER‘ — was Sie damit in Gang setzen ist ein Suchalgorithmus: In einer festgelegten Abfolge von Arbeitsschritten fischt dieser Algorithmus in den Untiefen des Internets nach Webseiten, die diesen Begriff enthalten, und sortiert seine Funde nach Verwertbarkeit — schließlich verfolgt Google das Ziel, uns möglichst relevante Suchergebnisse zu präsentieren.
Google macht das richtig gut: wenn ich ‚Deutsch–Evangelisch in Finnland‘ eingebe, erhalte ich einen Link zum Gemeindebrief, eine Anfahrtsbeschreibung zur Deutschen Kirche in Helsinki, einen Link zu den Gemeindewebseiten, und falls ich tiefer interessiert bin, auch noch den Hinweis, dass unsere Gemeinde zum Bistum Borgå gehört. Falls mich die Geschichte interessiert, präsentiert mir Google einen Artikel vom 5.11.2014: unsere Kirche ist 150 Jahre alt. Erst wenn ich in den Suchergebnissen weit nach unten scrolle finde ich auch weniger relevante Artikel wie „Heavy Metal rockt Kirchen in Finnland“ oder „Auswärtige Kulturpolitik und Kalter Krieg“ — Seiten im Internet, auf denen die Stichworte ‚Finnland‘, ‚Deutsch‘ und ‚Evangelisch‘ zufällig auftauchen.
Wie schafft der Google–Algorithmus das? PageRank (so der Name für diesen Algorithmus) berücksichtigt über 200 Einflussfaktoren und pro Faktor etwa 50 Variationen — 10.000 Schaltstellen also, die der PageRank durchläuft, um mir möglichst präzise Informationen zu geben. Alle Achtung!
Aber Moment mal: Was macht die Suche nach diesen drei Worten eigentlich so komplex? Google hat nicht nur das Ziel, generell die Internetfunde sinnvoll zu ordnen, sondern Google will mir persönlich die Ergebnisse präsentieren, die für mich am relevantesten sind. Er bezieht also Informationen zu der Person ein, die die Anfrage stellt:
Tendenziell erhalten unterschiedliche Personen unterschiedliche Suchergebnisse angezeigt, und es wäre durchaus interessant, mal mit einem anderen Menschen zusammen den selben Suchbegriff einzugeben und die Ergebnisse zu vergleichen. Aber Vorsicht: als Gesellschaftsspiel eignet sich das nicht, denn die Suchergebnisse verraten mir unter Umständen einiges über diesen anderen Menschen (und diesem über mich). Achtung, Algorithmen!
Algorithmen sind mächtige Werkzeuge, um sich in unserer überkomplex gewordenen Welt zurecht zu finden. Früher bin ich in ein Reisebüro gegangen und habe einen Flug gebucht. Die Reiseverkehrsfachfrau hatte einen guten Überblick über die etwa 20 Flugverbindungen. Mit 200 möglichen Verbindungen aber wäre sie leicht überfordert, und so vertraue ich meine Suche heute lieber einem Internet–Algorithmus an und erhalte die Info mit der günstigsten Verbindung (hoffentlich… denn wer von einem teuren Computer aus sucht, bekommt teurere Verbindungen angezeigt als jemand mit einem uralt Billiggerät und, wer vom Smartphone aus bucht, ist eventuell in Eile und akzeptiert höhere Preise als jemand, der vorm PC sitzt und in Ruhe die Preise vergleicht. Achtung, Algorithmen!
Algorithmen helfen uns dabei, uns in der Vielfalt zu orientieren und aus einer schier unendlichen Fülle an Informationen die herauszufinden, die für uns wichtig sind. Früher habe ich eine regionale Tageszeitung und eine politisch zu meinem Weltbild passende Wochenzeitung abonniert. Bis ca. zum Jahr 2010 habe ich mich damit gut informiert gefühlt. Etwa um die Zeit des arabischen Frühlings fing es für mich an, dass ich Nachrichten stärker über das Internet wahrgenommen habe als über die Presse. Und kurz danach setzte etwas ein, das erstaunlich war: ich musste nicht mehr nach den für mich wichtigen Nachrichten suchen — die Nachricht, die für mich relevant war, hat mich gefunden. Alle Achtung: Algorithmen!
2011 publizierte der Politikwissenschaftler Eli Pariser ein Buch unter dem Titel ‚The Filter Bubble‘. Er beschreibt darin seine Sorge, dass Menschen nur noch vorsortierte Nachrichten wahrnehmen: dabei entstehe eine Schleife, in der frühere Suchanfragen auf die Ansichten und Interessen eines Menschen schließen lassen und die Algorithmen dann nur noch das anzeigen, was zu diesem Profil passt. Das vereinseitige die Wahrnehmung von politischen und gesellschaftlichen Prozessen. Nun kann man einwenden, dass ich mir meine Wochenzeitung früher ja auch nach meiner politischen Grundorientierung ausgesucht habe und das insofern kein ganz neues Phänomen ist. Aber die Gefahr, dass Filterblasen meine Weltsicht einschränken, leuchtet mir ein. Achtung Algorithmen.
Wir werden es lernen müssen, mit der Macht der Algorithmen umzugehen. Wir müssen lernen, uns dieser Macht auch zu erwehren. Sie sind eben nicht nur ein mächtiges Orientierungswerkzeug, sondern auch ein perfides Manipulationswerkzeug. Algorithmen werden auch eingesetzt, um uns einzuschätzen, zu durchleuchten und uns zu beeinflussen. Ist es uns recht, dass in den Personalabteilungen Algorithmen die Bewerbungen vorsortieren und in den Versicherungskonzernen Algorithmen eine personenbezogene Risikobewertung vornehmen?
Vielleicht hilft ein Algorithmus ja, den Einfluss der persönlichen Vorurteile und Antipathien eines Personalchefs zu verringern? Gut möglich! Aber auch Algorithmen sind nicht vorurteilsfrei, sondern sie spiegeln die Struktur der Datenbanken, mit denen sie trainiert worden sind. Wenn in diesen Datenbanken Frauen häufiger in Betreuungsberufen und Männer in Managementpositionen vorkommen, dann lernen Algorithmen diese Struktur: sie sortieren Bewerbungen von Männern für offene Stellen in der Kinderbetreuung aus, während Bewerbungen von Frauen für Managementstellen es schwerer haben, die kritische Prüfung der Algorithmen zu passieren.
Die Mathematikerin Cathy O’Neil hat vier Kategorien von schlechten Algorithmen unterschieden:
- In die erste Kategorie gehören Algorithmen, die mit strukturell vorurteilsbehafteten Datenbanken trainiert worden sind sind und dadurch unabsichtlich Stereotypen reproduzieren (Frauen = Betreuungsberufe / Männer = Managementpositionen).
- Die zweite Kategorie sind schlampig programmierte Algorithmen, die auf die konkreten Bedürfnisse von Menschen zu wenig Rücksicht nehmen. Dazu gehört z.B. ein Algorithmus, den französische Universitäten bei der Studienvergabe eingesetzt haben und der die Wohnortnähe überproportional berücksichtigt hat: für Studierende aus der Provinz war es deutlich schwerer, Zugang zu Studienplätzen in den begehrten Zentren zu finden (dieser Algorithmus wird inzwischen nicht mehr verwendet).
- Die dritte Kategorie machen Algorithmen aus, die fies sind: Wenn die Werbeindustrie Algorithmen einsetzt, die Angebote gezielt dann absetzt, wenn Menschen emotional angreifbar sind oder höhere Preise anzeigen, wenn Menschen in einer Situation sind, in der sie vermutlich weniger genau die Preise vergleichen. Solche Algorithmen sind gemein – auch wenn sie nicht illegal sind.
- Die vierte Kategorie sind Algorithmen, die in bösartiger Absicht programmiert werden. Dazu gehören Algorithmen, die Abgasemissionen manipulieren, wenn ein Dieselfahrzeug auf dem Prüfstand statt auf der Straße steht.
Organisationen wie AlgorithmWatch (https://algorithmwatch.org) nehmen sich genau diese kritische Prüfung von Algorithmen zum Ziel. Und die vielgescholtene Europäische Datenschutzgrundverordnung beinhaltet auch die Forderung, dass Menschen nicht allein aufgrund von Algorithmen beurteilt werden dürfen. Das sind wichtige Schritte im Umgang mit der Macht der Algorithmen.
Was weiter nötig ist, ist eine Bewusstheit im Umgang mit Algorithmen: Ja, es besteht die Gefahr, dass ich mich in einer Filterblase befinde, die mich mit vereinseitigten politischen Informationen versorgt. Aber ob das so ist, lässt sich prüfen: zum Beispiel mit ‚polit echo‘, einer Funktion, die sich im Browser GoogleChrome installieren lässt und die den Newsfeed bei Facebook auf solche Vereinseitigung hin analysiert (https://politecho.org).
Mit zwei anderen Erweiterungen des Internet–Browsers GoogleChrome lassen sich Nachrichten aus dem Newsfeed eines anderen Nutzers einbinden, den man nach seiner politischen Einstellung auswählen kann: FlipFeed und EscapeYourBubble — Wie sieht die Welt eigentlich vom Standpunkt eines Pegida–Anhängers aus?
Drittens — und das scheint mir das Wichtigste zu sein — ist ein bewußter Umgang mit den Daten nötig, die wir produzieren. Wir füttern die Algorithmen mit unserem Datenabfall — aus purer Bequemlichkeit.
Wenn Sie im Sommer nach einem Rasenmäher gesucht haben und auch im Winter noch die neuesten Innovationen auf dem Rasenmähermarkt angeboten bekommen, dann liegt das vermutlich daran, dass sie seit dem Sommer die Cookies in ihrem Internet–Browser nicht mehr gelöscht haben.
Wenn Sie solche Werbung nützlich finden, dann brauchen Sie nichts zu tun. Wenn Sie aber langsam das Gefühl beschleicht, dass die Algorithmen Zugriff auf zu viele Informationen über Sie haben, dann lohnt es sich, ein paar Entscheidungen zu treffen:
- Natürlich sind auf Smartphones und Computern Internetbrowser vorinstalliert — und zwar die, die Windows und Google die meisten Daten über sie mitteilen. Sie sind nicht verpflichtet, diese Browser zu verwenden und den Datensammlern freien Zugriff auf die Daten aus ihrem Surfverhalten zu geben. Es gibt Browser wie Brave (https://brave.com) oder Cliqz (https://cliqz.com), die konsequent Ihre Privatsphäre schützen.
- Als Suchmaschine ist Google mit 95 % klar der Platzhirsch auf dem umkämpften Markt der Informationsvermittlung. Aber auch hier: wem das kommerzielle Interesse von Google unheimlich ist, der oder die sollte alternative Suchmaschinen wie Ecosia (https://www.ecosia.org) oder DuckDuckGo (https://duckduckgo.com) ausprobieren.
Drei Zahlen mögen das illustrieren:
- 2014 bezahlte FaceBook 19 Millarden US–Dollar für die Kommunikationsplattform WhatsApp (450 Millionen Nutzer);
- 2016 kaufte Microsoft das Netzwerk LinkedIn (430 Millionen Nutzer) für 26,6 Milliarden US–Dollar;
- Der Taxi–Dienstleister Uber erwirtschaftete im ersten Halbjahr 2016 einen Verlust von 1,2 Milliarden US–Dollar — dieser Verlust rechnet sich aber durch die Datensätze von einer Milliarde Fahrten.
So viel sind die Daten wert, die wir produzieren, in dem wir Social Media Accounts pflegen, kostenlose E–Mail–Adressen verwenden und unsere Verabredungen über kostenlose Messenger–Dienste treffen. Mit diesen Werten sollten wir bewußter umgehen. Und das ist nicht nur ein Plädoyer zur Datenvermeidung: Es gibt inzwischen auch Möglichkeiten, Daten zu spenden: zum Beispiel für medizinische Forschung, oder um die soziologischen Folgen von gesellschaftlichen Veränderungen besser zu prognostizieren. Denn auch das können Algorithmen. Alle Achtung!
Artikel von Pastor Hans–Christian Beutel, mit Infobox von Lukas Gienapp, erschienen im Gemeindebrief ‘Deutsch–Evangelisch in Finnland’, Nr. 5/2019 am 30. Juli 2019.