Plädoyer für eine Algorithmen-Ethik
Anfang 2006 untersagte es das Bundeskartellamt in einem aufsehenerregenden Verfahren der Axel Springer AG, die Mehrheit an Pro7-Sat.1 zu übernehmen. Die Liste solcher Eingriffe lässt sich erweitern, natürlich auch um zahlreiche kontrovers geführte Diskussionen um die Pressefusionskontrolle generell sowie um Eingriffe des Staates oder auch der EU-Wettbewerbshüter in die Presselandschaft. Auch wenn derartige Eingriffe in die Mechanik des Marktes schwer zu vertreten sind – die Motive liegen darin, Pluralität und letztlich die Unabhängigkeit der Medien abzusichern. Gleiches gilt für die in Zeiten wirtschaftlicher Nöte immer stärker diskutierte Trennung der wirtschaftlichen von der publizistischen Leitung eines Mediums. Die Gesellschaft betreibt einen erheblichen Aufwand, um sich den Zugang zu kritischer und unabhängiger Berichterstattung zu sichern. Doch unsere Medienlandschaft und vor allem die Art, wie wir Medien nutzen, ist starken Änderungen unterworfen; spätestens mit dem Erfolg des Internets sind Monopolfragen ganz neu zu stellen, die alten publizistischen Zentralachsen gelten vielleicht nicht mehr.
Doch was ist überhaupt mit diesen Prinzipien in einer Welt von Algorithmen? Als die Online-Branche vor rund zehn Jahren gewissermaßen laufen lernte, wurden schon bald Systeme entwickelt, um die Auslieferung digitaler Werbung nach bestimmten Kriterien individuell auf bestimmte Nutzer abzustimmen. Heute schon entscheiden diese Systeme in Spitzenzeiten bis zu 100.000 Mal in der Sekunde, wer gerade welche Werbung sehen sollte und wer nicht. Zur selben Zeit wurde an wirksameren Werbeformaten gearbeitet. Die Einführung sogenannter Pop-ups, also kleiner Fenster, die sich vor die eigentliche Website legen, um Werbung zu präsentieren, war für die Werbeindustrie ein Fest und für Anbieter von Inhalten mit Qualitätsanspruch ein Graus.
Entscheidende Rolle beim Medienwandel
Buchbar waren diese Pop-ups übrigens auch bei den Online-Angeboten zahlreicher deutscher Zeitungen, oft ohne das Wissen und gegen den Willen der Redaktionen. Sowohl Redakteure wie Online-Verantwortliche merkten das oft nicht einmal, da sie aus dem Prozess ausgeschlossen wurden: Die Systeme wurden einfach so eingestellt, dass Mitarbeiter der Zeitungshäuser an ihren IP-Adressen erkannt und von der Werbeauslieferung ausgenommen wurden. Angeblich wurden von einigen besonders kritischen Personen sogar die privaten IP-Adressen ermittelt, um auch dort für eine heile Welt zu sorgen.
Da wir davon ausgehen können, dass sich in spätestens zehn Jahren die meisten Menschen in erster Linie aus Online-Quellen informieren werden, gewinnen sie enorm an Relevanz. Eine führende Rolle bei diesem Medienwandel wird dabei von Algorithmen übernommen. Zeitungen werden zukünftig auf elektronischen Geräten gelesen oder häppchenweise per Stream konsumiert. Viele Leser werden neben den redaktionellen Angeboten zusätzliche, auf Algorithmen basierende Tools nutzen, um Inhalte individuell und voll automatisiert an ihre Interessen anzupassen. Viele dieser Inhalte werden darüber hinaus überhaupt nur existieren, weil ein weiterer Algorithmus den jeweiligen Bedarf dafür ermittelt hat.
Gesteuerte Angebote
Wieder ein anderer Algorithmus kümmert sich schließlich um die journalistische Recherche und schließt so den Kreis zwischen Produzent und Rezipient. Schon heute werden Artikel zur Sportberichterstattung oder zu Entwicklungen des Finanzmarktes von Algorithmen verfasst und publiziert und zwar vollautomatisch. An Verfahren, sprachliche Variabilität zu erzeugen, wird längst fieberhaft gearbeitet. Während derzeit noch jeder neue iPhone-Besitzer über die lustigen Antworten von Siri schmunzelt, schwingt bei vielen bereits ein Unbehagen darüber mit, wie überraschend gut Siri bereits ist. Sie lernt dazu, analysiert unsere Sprechweise, erkennt Tonalität und erstellt Analysen über unsere Lieblingsthemen auf großen amerikanischen Server-Farmen.
Wenn sich also in zehn Jahren ein Mensch über das aktuelle Geschehen informiert, ist die Wahrscheinlichkeit groß, dass mehrere Algorithmen dabei involviert sein werden. Sie werden steuern, was ihm angeboten wird, in welcher Reihenfolge das geschieht und mit welcher Schwerpunktsetzung, vielleicht sogar mit welcher Hintergrundfarbe. Vor allem werden Algorithmen beobachten, was der Leser sich anschaut und wo er hängenbleibt oder weiterführende Links ansieht.
In alle Lebensbereiche vorgedrungen
All dies wird aufgezeichnet und ausgewertet, um später noch genauere Empfehlungen aussprechen und Interessen noch genauer verstehen zu können. Aber damit nicht genug. Schon heute sind Algorithmen im Einsatz, die versuchen, aus diesen gewonnenen Daten Vorhersagemodelle und Verhaltensprognosen zu generieren. Dabei lernen sie mit jedem Klick. Mit solchen Verfahren ist es möglich, bestimmte Eigenschaften eines Lesers zu errechnen.
Aus all den so gewonnenen Daten und durch Vergleiche mit anderen Nutzern können leistungsfähige statistische Algorithmen sogar Dinge ableiten, die wirklich in der Zukunft liegen, also zum Beispiel, ob ein im Internet bestellter Schuh wieder zurückgesendet werden wird oder nicht, ob ein Konzert, das am nächsten Wochenende stattfindet, gefallen wird oder nicht. Allein aus dem Kaufverhalten von Konsumenten lassen sich verlässliche Indikatoren ableiten, um werdende Mütter an der Supermarktkasse zu erkennen und ihnen dann spezielle Angebote zu machen.
Alles spricht dafür, dass derartige Verfahren in alle Lebensbereiche vordringen werden. So, wie schon heute keiner mehr die gleiche Website sieht wie der Nebenmann, wird dann vielleicht keiner mehr den exakt gleichen Versicherungstarif oder die gleiche Aufmerksamkeit beim Einchecken in ein Hotel erhalten.
Simultanübersetzung in Echtzeit
Wem das bereits auf den Magen schlägt, der sollte bedenken, dass wir inzwischen mehr Sensoren mit uns herumtragen, als den Geheimdiensten noch vor wenigen Jahren in Laboren zur Verfügung standen. Unsere Handys erkennen, wie schnell wir uns bewegen und in welcher Lage wir sie halten. Sie kommunizieren mit mehreren Satelliten gleichzeitig, um unseren Standort metergenau zu ermitteln. Sie erkennen, ob wir eine Person fotografieren oder ein Gebäude.
Das neue Topmodell von Samsung bemerkt sogar, ob der Nutzer seine Augen auf das Display richtet, und schaltet sich dann nicht in den Ruhezustand. All diese Daten werden manchmal illegal, aber immer häufiger auch mit völligem Einverständnis des Nutzers an Datenbanken und Analysesysteme übermittelt, mit denen die Geräte per Internet ständig verbunden sind. Nutzer versprechen sich Verbesserungen und spannende Zusatzfunktionen, die sie zweifellos auch bekommen.
Und bei all dem darf man nicht vergessen, dass es aus dieser Branche zukünftig und abgesehen von der personalisierten Tageszeitung beispiellose Innovationen in anderen Bereichen geben wird. Algorithmen und die immer weiter entwickelten Verfahren zur Verarbeitung und Analyse extrem großer Datenmengen werden maßgeblich dazu beitragen, dass wir vermutlich bald den Menschheitstraum einer Simultanübersetzung in eine beliebige Zielsprache in Echtzeit sehen werden.
Was für Schwerpunkte setzt der Algorithmus?
Ein Prototyp dafür läuft bereits in den Google-Labors, ebenso wie autonom fahrende Autos, die sich unter Zuhilfenahme von Technologien aus der Werbebranche durch die Straßen von San Francisco bewegen. Und wenn in Zukunft komplexere Netzwerkmodelle erforderlich sein werden, um die Energiewende zu stemmen, können wir fast sicher sein, dass ebenfalls Verfahren aus dem Internet zum Einsatz kommen werden. Aber noch einmal zurück zum Beispiel der Pressefusionskontrolle. Wenn die Wettbewerbshüter heute darüber bestimmen können, ob zwei Medienunternehmen fusionieren dürfen: Können sie in Zukunft auch darüber bestimmen, wenn die beiden Unternehmen den gleichen Algorithmus zur Auslieferung ihrer Nachrichten im Internet nutzen? Wird überhaupt irgendjemand außer ein paar Technikern wissen, was dieser Algorithmus macht und welche Schwerpunkte er setzt? Oder wird die Auswahl der Artikel aus der Controlling-Abteilung gesteuert, wo die automatisierte Margenoptimierung aktiviert werden kann?
Wem würde es auffallen, wenn bestimmte Tageszeitungen im Berliner Regierungsviertel auf den iPads der Abgeordneten andere Artikel anzeigen als im Rest des Landes? Wenn es ohne Probleme gelang, die Zeitungsredaktionen von der Nichtexistenz von Pop-up-Werbung auf ihren Websites zu überzeugen – welche Möglichkeiten haben wir dann, wenn auch der komplette Inhalt dieser Websites über unsere Algorithmen ausgeliefert wird? Und wer hat den Algorithmen überhaupt die Tür geöffnet?
Das Prinzip der Relevanz erklärt alles
Wenn heute ein wenige Jahre junges Unternehmen mehr persönlich registrierte Kunden hat als je ein anderes Unternehmen zuvor und an der Börse höher bewertet wird als General Motors und Volkswagen zusammen, obwohl der Umgang dieses Unternehmens mit den Daten seiner Kunden höchst zweifelhaft erscheint, dann sollten wir uns langsam mit der Tatsache anfreunden, dass diese Art der datengetriebenen, hochpersonalisierten Portale für Information und Kommunikation nicht mehr verschwinden wird. Warum auch?
Begeistert von den Möglichkeiten ist nicht nur die Werbeindustrie, die Nutzer sind es auch; schließlich wurde nicht einer der 800 Millionen Kunden von Facebook gezwungen, einen Account zu eröffnen und diesen täglich im Durchschnitt zwanzig Minuten zu nutzen. Ebenfalls freiwillig legen Nutzer eine Location für ihr Lieblingscafé auf Foursquare an, um aller Welt mitzuteilen, wo sie sich gerade befinden. Oder sie laden ihre Joggingstrecken ins Internet, um alle Welt genau zu informieren. Die Menschen lieben diese Services und füttern die Algorithmen und Datenbanken mit großer Begeisterung, häufig übrigens nicht trotz der Datenschutzprobleme, sondern gerade weil sie ihre Daten mit aller Welt teilen wollen.
Bei der Frage nach dem Warum muss man trotzdem nicht unbedingt zum Kulturpessimisten werden. Es sind ein paar ganz einfache Prinzipien, die hinter diesem Verhalten stecken, eigentlich nur ein einziges, mit dem man das meiste erklären kann: Relevanz. Relevanz ist der Grund, warum man immer häufiger Menschen mit der Zeitung auf dem Schoß in der Bahn sitzen sieht, während sie ihr Mobiltelefon darüber halten und durch den Twitter-Stream blättern. Relevanz ist der Grund, warum inzwischen mehr Hotels über Empfehlungsplattformen gebucht werden als über alle Reisebüros zusammen. Und Relevanz ist auch der Grund, warum Leser gut gemachte personalisierte Nachrichten-Websites irgendwann den klassischen Angeboten vorziehen werden.
Wir brauchen eine Algorithmen-Ethik
Deshalb brauchen wir eine Diskussion über Mechanismen zur Kontrolle von Algorithmen, so, wie es nach dem Zweiten Weltkrieg eine Diskussion gab, die zur Einführung von Sicherungsmechanismen für Pluralität, Meinungsfreiheit und vor allem eine freie Presse geführt hat. Und wenn die 68er-Lehrergeneration ihren Schülern durch Zeitungsanalyse mit Schere und Textmarker beigebracht hat, wie Meinung gemacht wird, müssen die Schüler in der Zukunft verstehen lernen, warum sie auf ihrem Computer eine andere Nachrichtenlage sehen werden als ihr Tischnachbar.
Folgte man den Ausführungen des amerikanischen Politikprofessors Eben Moglen auf der diesjährigen re:publica-Konferenz in Berlin, dann sollte man nicht nur verstehen, wie die Algorithmen funktionieren, sondern noch einen Schritt weiter gehen und fragen, ob eine freie Medienlandschaft überhaupt langfristig gesichert werden kann, wenn jeder Lesevorgang in einer Datenbank landet und missliebige Bücher, Apps oder Artikel von den Unternehmen bereits per Fernzugriff entfernt oder geändert werden können.
Selbst wenn man diese radikale Sicht nicht teilt und sich dem Charme der algorithmisch gesteuerten Morgenzeitung hingibt, wenn wir im Fernsehduell akribisch zählen, wie viele Minuten Redeanteil auf einen Kandidaten entfallen, dann kann es uns nicht egal sein, wenn die politische Berichterstattung flächendeckend von einer unbekannten Zahl von Algorithmen gesteuert wird, deren Prinzipien wir nicht kennen und auch nicht kontrollieren können. Deswegen brauchen wir eine Algorithmen-Ethik.
Kontrolle durch Transparenz
Denn die Aufgabe ist wahrhaft schwer in den Griff zu bekommen. Während man die wichtigsten Tageszeitungen einer Woche noch bequem nebeneinanderlegen und analysieren kann, wird es sehr schwer zu ermitteln, wie ausgewogen die zehn wichtigsten Nachrichtenportale im Internet berichtet haben. Durch passive Beobachtung ließe sich das nur bewerkstelligen, wenn die zig Millionen Varianten dieser Websites, die von den Algorithmen für die Nutzer zusammengestellt wurden, alle aufgezeichnet würden – ein monströses Unterfangen, das übrigens gleich auch wieder zahlreiche Datenschutz-Fragen nach sich ziehen würde.
Dennoch ist Transparenz vermutlich eines der wichtigsten Prinzipien zur Lichtung des Dschungels. Algorithmen müssen transparent gemacht werden, sowohl in ihrem Einsatz als auch in ihrer Wirkweise. Das wäre auf den ersten Blick am einfachsten durch eine Publikationspflicht des Algorithmus im Quellcode zu bewerkstelligen. Und den Einsatz könnten Websites mit einem kleinen Hinweis auf der Website dokumentieren. Was direkt zum zweiten Prinzip führt, mit dem im Internet einiges bewirkt werden kann, vor allem, wenn ausreichend für Transparenz gesorgt wurde: Kontrolle.
Das Recht auf Pseudonymität
Algorithmen müssen abschaltbar sein. Oder es sollte dem Leser immer möglich sein, den nicht personalisierten Zugang zu einer Website zu aktivieren. Ein Algorithmus ist aber bekanntlich nur so viel wert wie die Daten, mit denen er gefüttert wird. Also müssen auch diese transparent gemacht werden, und zwar in leicht verständlicher, lesbarer Form, was bei Algorithmen im Quellcode einigermaßen schwierig werden dürfte.
Und noch ein weiteres Prinzip muss dringend auf die Agenda der Politik und der beteiligten Unternehmen, weil es für die Meinungsfreiheit im Internet so fundamental sein könnte wie die Pressefusionskontrolle in der alten Welt: Wir brauchen ein Recht auf Pseudonymität im Internet! Wir müssen uns vermutlich damit abfinden, dass das Internet von Daten lebt und die Anzahl der erhobenen Daten exponentiell zunimmt.
Aber wir sollten uns nicht damit abfinden, dass diese Daten immer einer Person zugeordnet werden können, wenn es das Geschäftsmodell oder die rechtliche Lage nicht zwingend erfordert. Denn es gibt kaum einen wirksameren Mechanismus, um Datenskandale zu verhindern und Ausspäh-Infrastrukturen im Ansatz zu verunmöglichen, als das Recht auf Pseudonymität. Unternehmen sollten gezwungen werden, Daten mit Personenbezug nur dann zu erheben, wenn es unbedingt erforderlich ist und Möglichkeiten der Anonymisierung nachweislich nicht existieren.
Dieser Text erschien zuerst bei „FAZ.NET„.