Algorithmen sind politisch

Wenn in Wikipedia ein Fehler verortet wird, ist der mediale Aufschrei immer groß. Das war neulich wieder der Fall, als ein Scherzkeks den gefühlten 95000 Vornamen des neuen Wirtschaftsministers Guttenberg einen weiteren (falschen) hinzufügte: Wilhelm. Zum Willy machte sich aber weniger die “Freie-Inhalte-Enzyklopädie”, deren Anfälligkeit für gezielt gesteuerte fehlerhafte bzw. verfälschende Einträge durch Einzelne bekannt sein dürfte, sondern eine Reihe bekannter Online-Präsenzen deutscher Verlagshäuser, die den Fehler offenbar ungeprüft abschrieben und so ein schlechtes Licht auf ihre Recherchepraktiken gestatteten.

Das tut den traditionellen Informationswächtern weh im Kampf gegen alternative Infokanäle, und verbale Rückzugsgefechte, die mit der Taktik geführt werden, den schwarzen Peter wieder an Wikipedia zurückzugeben, machen die Sache nur noch schlimmer, wie Stefan Niggemeier anhand des Beispiels Spiegel Online schön dargelegt hat. Dennoch ist die ganze Debatte irgendwie Spiegelfechterei, zeigt der multiplizierte Fehler doch nur, dass man sich generell nie nur auf eine Quelle verlassen sollte - und das schließt Wikipedia genau so ein wie zum Beispiel die Enzyclopaedia Britannica.

Worüber aber beim Thema Wikipedia oder allgemeiner beim Web 2.0 gestritten werden müsste, ist die Frage, wie Informationen generell einzuordnen sind, die aus kollaborativen Generierungsverfahren stammen. Sicher, die Idee einer sozialen Enzyklopädie, an der jeder mittun kann und die so die “Weisheit der Massen” abbildet, ist etwas anderes als der Pagerank-Algorithmus, mit dem Google die Relevanz von Webseiten berechnet. Zumal Jason Lanier in seinem viel zitierten Essay darauf hingewiesen hat, dass die Urheberschaft von Informationen in Wikipedia häufig zum Autor zurückverfolgt werden kann und somit die eigentlichen Quellen der Einträge (noch) sichtbar sind. Im Grunde geht es aber um dieselben Prinzipien, wie Kritiker nicht müde werden zu betonen, zum Beispiel um den Einsatz kollektiver Intelligenz (die laut Wortschöpfer Tim O´Reilly eine von insgesamt sieben Maximen ist, die das Web 2.0 ausmachen). In drastischer Form drückt dies der Soziologe Rudi Schmiede in der üppigen Google-Beilage der Schweizer Wochenzeitung aus:

“Zwei Milliarden Fliegen können nicht irren. Demnach schmeckt Scheiße gut. Das ist das Grundprinzip von Web 2.0.”

Schmiede, Professor an der Technischen Universität Darmstadt, möchte mit seiner pointierten Äußerung offensichtlich auf die wichtige Unterscheidung zwischen Information und Wissen hinaus: Während man der (statischen) Information durchaus eine technische Gestalt geben könne, sei dies beim (dynamischen) Wissen nicht möglich, da zum Wissen Urteilskraft gehöre, die eine Maschine aber nun einmal nicht besitze. Deshalb könne, so Schmiede, eine Maschine nur Material für den Wissenserwerb liefern, zum Beispiel mithilfe komplexer Wahrscheinlichkeitsberechnungen – mehr aber auch nicht.

Das ist keine rein akademische Überlegung, was Praktiker durchaus bestätigen, zum Beispiel der Weiterbildungsexperte Jochen Robes, der auf seinem Blog seufzend einen Beitrag auf den Seiten der Gesellschaft für Wissensmanagement verlinkt, weil er an Diskussionen denken muss, in denen die Problematisierung des Gegensatzes Information vs. Wissen offenbar kontraproduktiv wirkten. Wie dem auch sei, Wolfram Schäfer gibt in dem GfWM-Beitrag zu Bedenken, dass Wissen mehr ist als die Summe der Informationen, die ihm zugrunde liegen: Wissen sei vielmehr “verstandene Information” – das Wissen erscheint hier als emergente Eigenschaft.

Dass es beim Wissen nicht um die Anhäufung möglichst vieler Informationen ankommt, sollte man sich zum Beispiel vor Augen führen, wenn das semantische Web mal wieder zur kommenden Killerapplikation des Internets hochgejazzt wird. Aber machen wir uns nichts vor: Auch das semantische Web ist nur ein Tool. Eines, das bestimmt dabei helfen kann, große Informationsmengen zu be- und verarbeiten; aber keines, das dem Nutzer die Einordnung und Bewertung der zur Verfügung gestellten Infos abnimmt, abnehmen kann. So gesehen hat der Begründer des “semantic web”, Tim Berners-Lee, Recht, wenn er sagt, der Begriff “Data Web” sei eigentlich passender. An der entscheidenden Rolle der Sprach- und Informationsverarbeitungskompetenzen der Nutzer wird also auch das semantische Web nichts ändern.

(Wobei die Gefahr bestehen dürfte, dass das semantische Web, wenn es sich denn auf breiter Ebene oder gar als Quasi-Standard in der Hand ausgewählter Unternehmen à la Google durchgesetzt haben sollte, die Datenmenge des so genannten Deep Web ausweitet. Dann würden die Informationen, die wir zum Wissenserwerb aus dem Netz ziehen, also noch gefilterter sein, als dies ohnehin schon der Fall ist.)

Quantität bleibt also etwas anderes als Qualität, und die Herausforderung dürfte zukünftig auch darin bestehen, die wachsenden Datenmengen, die verarbeitet werden können, und die ausgefeilten Algorithmen (Brand eins beschreibt hier die Arbeit so genannter Algorithmen-Designer), die Infos aus diesen Daten herausfiltern, in realistischem Licht zu sehen. Das fiel zum Beispiel bei Chris Andersons Vorstoß im Wired Magazine noch leicht, als der Long-Tail-Theoretiker kurzerhand die wissenschaftliche Methode für obsolet erklärte und deren Aufgaben komplett der Mathematik zuschustern wollte; das war zu viel Effekthascherei und zu wenig Inhalt:

“Scientists are trained to recognize that corellation is not causation. (…) There is now a better way. Petabytes allow us to say: “Correlation is enough.” (…) We can throw the numbers into the biggest computing clusters the world has ever seen and let statistical algorithms find patterns where science cannot. (…) The new availability of huge amounts of data, along with the statistical tools to crunch these numbers, offers a whole new way of understanding the world.”

Die Aufgabe an sich ist aber dennoch mehr als anspruchsvoll: Sie bedeutet, nach wie vor grundsätzlich jede Quelle auf ihre (faktische und potenzielle) Aussagekraft hin zu hinterfragen. Bei Informationen, die mit Hilfe eines Algorithmus zusammen getragen worden sind, betrifft das zum Beispiel nicht nur die Beurteilung der gelieferten Informationen, sondern auch die (zumindest theoretische) Berücksichtigung fehlender, heraus gefilterter Fakten: Denn Maschinen seien mitnichten neutral und darüber hinaus Algorithmen politisch, sagt Rudi Schmiede und gibt zu Bedenken:

“In den Auswahlalgorithmus selbst gehen ja (…) quantitativ gefasste soziale Kriterien ein. Und gerade im Bereich des Wissens und der in ihm verarbeitenden Informationen liegt die Wahrheit keineswegs immer bei der Mehrheitsmeinung.”


 
 
 

Ein Kommentar zu “Algorithmen sind politisch”

  1. Thorstena » Technologiebewertung: Shirky und Schirrmacher
    24. November 2009 um 16:08

    [...] Jedoch - und nun relativiert Shirky nach bewährtem Muster - sei der Begriff “Algorithmic Authority” eigentlich irreführend, da er impliziere, das Problem daran sei allein die Technik (Aggregatoren und Filter). Der “Faktor Mensch” spielt - je nach Spielart mehr oder weniger - halt doch mit rein: Es gebe schließlich einen Unterschied zwischen dem PageRank-Algorithmus und den durchaus auch aus Menschen bestehenden Kontrollmechanismen (”human vetting”) anderer Konzepte wie zum Beispiel Wikileads. (Abgesehen davon: Jeder Algorithmus ist vom Menschen gemacht und damit letztendlich politisch.) [...]

blogoscoop