Solidaritätserklärung mit der Kupferbau-Besetzung von Capulcu

Liebe Besetzer*innen,

wir wünschen Euch viel Erfolg und unterstützen die Besetzung des
Kupferbaus an der Uni Tübingen nach Kräften und von ganzem Herzen!
Unsere Sicht auf die künstliche Intelligenz hat sich über die
Untersuchung des Herrschaftsaspekts stark verändert.

Technologie ist nie neutral - sie ist immanent politisch.
Max Weber schrieb dazu: »Nicht erst ihre Verwendung, sondern schon die
Technik ist Herrschaft (über die Natur und den Menschen), methodische,
wissenschaftliche, berechnete und berechnende Herrschaft. Bestimmte
Zwecke und Interessen der Herrschaft sind nicht erst ›nachträglich‹ und
von außen der Technik oktroyiert – sie gehen schon in die Konstruktion
des technischen Apparats selbst ein. Die Technik ist jeweils ein
geschichtlich-gesellschaftliches Projekt; in ihr ist projektiert, was
eine Gesellschaft und die sie beherrschenden Interessen mit den Menschen
und mit den Dingen zu machen gedenken.«

Wir als capulcu fällen nicht das lächerliche Urteil, dass die
Technologie "schlecht" ist. Aus welcher - ohnehin historisch bedingten -
Ethik heraus denn auch? Wir sagen, sie ist Gewalt und sozialer Krieg.
Unsere Kritik richtet sich gegen die technologische Aneignung von
Lebensprozessen.

Und daher ist es von großer Bedeutung, dass wir uns gemeinsam gegen die
fremdbestimmende Dimension der Künstlichen Intelligenz als Technologie
zur Wehr setzen. Insbesondere dann, wenn diese KI auch noch in einem
zivil-militärischen Kontext beforscht und entwickelt werden soll.
Hunderte von Wissenschaftler*innen bei Google haben gemeinsam ihre
Unterstützung des militärischen Projekts "Maven" aufgekündigt - Eine von
Google zu entwickelnde KI sollte die Objekterkennung von militärischen
Drohnen verbessern. Google musste daraufhin seine Beteiligung an diesem
Projekt einstellen. Wir sehen, dass eine kritische Haltung in der
Forschung selbst im technokratischen Silicon Valley möglich ist. Warum
nicht auch in Tübingens Cyber Valley?

Wir grüßen alle Besetzer*innen und ihre Unterstützer*innen und widmen
Euch unseren gerade fertig gestellten Text (quasi als
Vorab-Veröffentlichung) zur KI als Gamechanger in der Wissenschaft.
"Korrelation statt Kausalität - zentralisierte Macht in Datenbanken",
aber lest selbst ...

(siehe Anhang)

Mit solidarischen Grüßen
capulcu

PS: Unsere neue Broschüre "DELETE" mit weiteren neuen Artikeln findet
ihr ab Montag auf capulcu.blackblogs.org

----------------

Korrelation statt Kausalität
Zentralisierte Macht in Datenbanken

Sprachprofil => Persönlichkeitsprofil ?

Die Zeitarbeitsvermittlung randstad hat ihr Bewerbungsverfahren verschlankt. Wer sich hier um einen Job bemüht, muss nun kein klassisches Bewerbungsgespräch mehr absolvieren. Das neue Job-Interview besteht aus einem 15-minütigen Telefonat. Erstaunlich dabei: Ich werde nach meinen Erlebnissen meines letzten Urlaubs gefragt – es geht überhaupt nicht um meine Qualifikationen, Joberfahrungen oder sonstige für die Lohnarbeit relevante Eigenschaften. Noch befremdlicher: Was ich erzähle, wird nicht einmal berücksichtigt! Randstad analysiert über eine „künstlich intelligente“ Sprachanalyse-Software lediglich, wie ich erzähle.

Dazu vermisst die Software der Aachener Firma Precire die Wortwahl, meine Art, Wörter zu kombinieren, Sprech-Tempo und -Rhythmus, sowie die Variation von Lautstärke und Stimmhöhe. Precire will herausgefunden haben, dass diese Sprachmerkmale auch Aufschluss auf den Charakter eines Menschens geben – seine Risiko- und Leistungsbereitschaft, die emotionale Stabilität, Neugier und Kontaktfreude, um nur einige der abgeleiteten Eigenschaften zu nennen. Das ermittelte individuelle Sprachmuster wird mit einer Datenbank vergleichen. Diese Datenbank besteht (anfänglich) aus Sprachmustern von 5200 Proband*innen, die sich einem psychologischen Test unterzogen haben. Von diesen Proband*innen glaubt der Konzern zu wissen, wie sie „ticken“. Ab da lernt die Software eigenständig dazu.

Angeblich weisen etwa Personen, die wenig belastbar sind, ähnliche Sprachmuster auf. Diese „Erkenntnisse“ bleiben gänzlich unbewiesen. Sie werden nicht einmal weiter untersucht. Es wird gar keine Abstraktion vom zugrunde liegenden Datensatz angestrebt. Niemand macht sich die Mühe, einen kausalen Zusammenhang herzustellen zwischen der rein statistisch ermittelten Korrelation (Häufigkeit, mit der zwei Eigenschaften in einem Datensatz gleichzeitig auftreten) von Sprach- und Persönlichkeitsprofil. Niemand versucht, eine Theorie zu entwerfen, worin sich der Zusammenhang begründen könnte, den die Korrelationen nahelegen. Genau das ist der entscheidende Punkt. Die schiere Anzahl zur Verfügung stehender Daten verleitet dazu, den Erkenntnisgewinn eines kausalen Zusammenhangs gering zu schätzen. Klassische Theoriebildung wird verdrängt von einer wachsenden Masse an Daten, die – wie wir sehen werden – mitunter wenig aussagekräftig sein kann. Viel zu selten wird im BigData-Geschäft die Qualität von Datensätzen analysiert und diskutiert. Dazu gehört auch das Ausblenden eines in der Regel komplexen Kontextes, in dem Daten erhoben werden. Viele der per Korrelationsanalyse behaupteten statistischen Zusammenhänge halten einer Verallgemeinerung nicht stand.

Jetzt mag mensch einwenden, dass die Auswirkungen eines zweifelhaften Rückschlusses von Spracheigenschaften auf die Persönlichkeitseigenschaften bei einem Bewerbungsverfahren in der Zeitarbeitsvermittlung gering sind. Allerdings ist das Anwendungsgebiet der Sprachanalyse mittlerweile deutlich breiter. Sie wird z.B. auch in Callcentern eingesetzt, um zu überprüfen, ob sich die Mitarbeiter*innen des Callcenters in einem vorgegeben Freundlichkeits-Korridor bewegen. Diese bemängeln, dass die Bewertung durch den digitalen „Freundlichkeits-Assistenten“ sie in einen unnatürlich vereinfachten Sprachmodus dränge – denn die Maschine versteht keine Ironie oder subtilere Formen von Zuwendung. Die Mitarbeiter*innen erhalten dann eine schlechtere Bewertung.
Nach dem Suizid eines Lufthansapiloten, der seine voll besetzte Maschine in den Alpen zum Absturz brachte, fordern Technokrat*innen, Risikoberufe unter permanente Beobachtung durch eine solche Sprachanalyse zu stellen – in der Hoffnung, dann Warnhinweise auf eine drohende Depression zu erhalten.

Das eigenständige „Hinzulernen“ der auf künstlichen neuronalen Netzen basierenden Software hat seine Eigenheiten und entzieht sich per Konstruktion der begleitenden Kontrolle selbst ihrer Programmierer*innen. Ein Beispiel: Amazon hatte eine Software entwickelt, die eine Vorabbewertung von Bewerbungsunterlagen vornehmen sollte. Die Software lernt eigenständig und sucht in allen bisher analysierten Bewerbungen nach Mustern, die auf eine geeignete Kandidat*in hinweisen. Amazon schaltete die Software wieder ab, als sie sich mehr und mehr zur Frauenfeindin entwickelte. Das Muster „männlich“ schien ihr (aus den gegebenen Daten heraus) besonders erfolgversprechend zu sein. Kaum eine weibliche Bewerberin wurde zum Casting vorgeschlagen.
In ähnlicher Weise entpuppte sich 2016 Microsofts Chatbot Tay mit wachsender Gesprächserfahrung nach nur 16 Stunden Geschwätzigkeit als Nazi und musste abgeschaltet werden. Er „lernte“ lediglich Inhaltsmuster von seinem offenbar politisch unausgewogenen Schatz an Gesprächspartner*innen.

Eine simple Softwarekorrektur ist dann nicht möglich. Nicht einmal die Vorhersage, ob es zu einer solchen Ausprägung von Mustern kommen könnte. Die Programmierer*in müsste sämtliche bisher gemachte „Erfahrungen“ der Software nachvollziehen, um eine solche Vorhersage von unerwünschten Mustern zu treffen. Die Qualität der Daten ist eine wichtige Kenngröße bei diesem Problem. Lernt die Software frei hinzu, geht die Kontrolle über die Qualität der nun wachsenden Datenbank in der Regel verloren.

Das Ende der Theorie

Chris Anderson (ehemaliger Chefredakteur des Technologie-Magazins Wired) läutete bereits 2013 in einem Essay „Das Ende der Theorie“ ein. Er schrieb, man brauche keine semantische oder kausale Analyse mehr – eine statistische reiche völlig aus:

„Wir leben in einer Welt, in der riesige Mengen von Daten und angewandte Mathematik alle anderen Werkzeuge ersetzen, die man sonst noch so anwenden könnte. Ob in der Linguistik oder in der Soziologie: Raus mit all den Theorien des menschlichen Verhaltens! Vergessen sie Taxonomien, die Ontologie und die Psychologie! Wer weiß schon, warum Menschen sich so verhalten, wie sie sich gerade verhalten? Der springende Punkt ist, dass sie sich so verhalten und dass wir ihr Verhalten mit einer nie gekannten Genauigkeit nachverfolgen und messen können. Hat man erst einmal genug Daten, sprechen die Zahlen für sich selbst.“[1]

Fast könnte man meinen, Anderson habe recht: Die erfolgreichste Variante künstlich-intelligenter Sprachübersetzungs-Software von Google verzichtet fast vollständig auf grammatikalische Vorgaben der beiden beteiligten Sprachen. Die Übersetzung basiert ausschließlich auf ausreichend vielen Textdaten, die in einen selbst-lernenden Algorithmus zur Sprachmustererkennung eingespeist werden. Google versucht also gar nicht erst, eine Sprache „zu verstehen“ - das heißt, per Abstraktion Sprachregeln abzuleiten und sich somit eine Theorie der Sprache zu erarbeiten, sondern erhöht die Wahrscheinlichkeit einer treffenden Übersetzung ganzer Wortgruppen durch zwei Dinge: die stetige Erweiterung der Vergleichsdatenbanken bereits getätigter „Übersetzungen“ und eine darauf basierende, sich automatisch anpassende Neugewichtung erkennbarer Übersetzungsmuster. Nach Milliarden so „übersetzter“ Texte könnten KI-Enthusiast*innen behaupten, diese erlernten Gewichte (Korrelationen) gäben eine Art „Grammatik“ der Sprachübersetzung z.B. vom Spanischen ins Isländische wieder.

Wer die Daten besitzt, hat die Macht

Der entscheidende Punkt ist: Diese „Grammatik“ ist nicht extrahierbar – der Mensch profitiert nicht in einer von der künstlich-intelligenten Maschine abstrahierbaren Form von diesem „Übersetzungs“wissen. Das Wissen ist nicht von der immer größer werdenden Sprachmusterdatenbank abzutrennen: Wir lernen nichts über das Wesen der beteiligten Sprachen. Das künstlich „Erlernte“ wird kein für andere erlernbares Allgemeinwissen. Googles Übersetzungsassistent ist eine „Black Box“. Alleinig die Institution bzw. das Unternehmen, welches die Datenbank besitzt, hat die Deutungshoheit inne und profitiert davon. Google häuft Herrschaftswissen an und behauptet, einen Beitrag zur allgemeinen Verständigung und zur Wissensvermehrung zu liefern – für alle frei zugänglich.

Mehr noch: Die Eigentumsverhältnisse der Datenbank machen eine behauptete Universalität von Datenzusammenhängen unanfechtbar. Der Geltungsbereich eines theoriefreien Datenzusammenhangs ist nicht verifizierbar: ohne Offenlegung der Daten ist die Nachvollziehbarkeit, also auch die Reproduzierbarkeit behaupteter Datenzusammenhänge, nicht gegeben.

Der Übersetzungsassistent ist (derzeit) für alle „frei nutzbar“ und dennoch machen wir uns mit seiner Nutzung von Google abhängig. Ein leichter Schritt für Google, in einer späteren Entwicklungsstufe die Nutzung der Software an Bedingungen zu knüpfen. Nicht jetzt, wo wir alle beitragen sollen zu Googles Wissensanhäufung – aber später, wenn die Sprachassistenz als Alltagswerkzeug etabliert ist und viele Alltagsabläufe nur noch mit ihr zu bewerkstelligen sind. Dann kann Google entscheiden, wer zu welchen Konditionen die bis dahin entwickelte Echtzeit-Übersetzung von Sprache A nach B nutzen darf.

Eine solche Verengung des vormals freien Zugangs ist keine pessimistische Phantasterei, sondern Realität für die Mehrzahl der erfolgreichen, zunächst unabhängigen Software-Entwicklungen. Als Startup von Google, Facebook, Amazon und Co gefördert, zum Marktführer aufgebaut, später verschluckt und als Dienst in die eigene Produktgruppe eingemeindet, werden sie zunächst weiter frei angeboten. Schleichend werden dann jedoch über die Allgemeinen Geschäftsbedingungen (AGB) Konditionen für die Nutzung verändert.
Einige werden sich noch erinnern, dass Facebook bei der Übernahme von Whatsapp garantiert hatte, es werde keinen Datenaustausch zwischen Whatsapp und Facebook geben. Die Realität sah schnell anders aus.

Der Macht zentral gesammelter Daten in einem durch die Omnipräsenz digitaler Dienste transformierten Kapitalismus gehen wir im Artikel „Die Krise der Repräsentation“ hier in diesem Band nach. Wir verweisen auf die vielfältigen Methoden der sozialen Physik zur personalisierten Lenkung individuellen Verhaltens. Es hat in der Geschichte der Menschheit keine vergleichbar große Möglichkeit der Machtkonzentration gegeben!

Dabei ist die Macht der Daten nicht unmittelbar bei ihrer Erhebung ersichtlich. Häufig stellen sich Konsequenzen der persönlichen Abhängigkeit von diesen Daten viel später heraus. Die viel zitierte „Rosa Liste“, in der Schwule und Lesben im Deutschland der Weimarer Republik erhoben wurden, hatte erst (deutlich zeitversetzt) unter der Naziherrschaft dramatische Folgen für die dort Verzeichneten.

Gewöhnung an zentrale Dienste

Bei digitalen Diensten, deren Dienstleistung auf Künstlicher Intelligenz basiert, stellt die Kopplung von künstlich „Erlerntem“ an die Erfahrungsdatenbank das zentrale Merkmal dar. Die Erfahrungsdatenbank ist das eigentliche Herzstück des Dienstes, ganz egal, ob wir von Facebook, Google, Amazon oder Uber reden. Diese Art des künstlichen „Lernens“ setzt voraus, dass die Nutzer*in des Software-Dienstes, die gleichzeitig Trainer*in der Datenbank ist, permanent mit der zentralen Datenbank verbunden - also online - ist.

Wenn wir uns an die 90er Jahre zurück erinnern, stellen wir fest, dass damals der Großteil der Nutzer*innen-Software lokal und offline funktionierte. Derart dezentrale „Dienste“ erlauben keine Ökonomisierung des Nutzer*innenverhaltens. Die Verlagerung vieler ehemals eigenständiger Standardsoftware in cloud-basierte Dienste war und ist eine notwendige Gewöhnung der Nutzer*in an die neue App-ifizierte Mensch-Software-Relation. Eine Textverarbeitung benötigt keine Online-Funktionalität – auch nicht für die Rechtschreibkorrektur. Der Gewinn, von unterschiedlichen Geräten auf die verfassten Texte zugreifen zu können, ist für die meisten ebenfalls ein marginaler. Viele haben sich schlichtweg daran gewöhnt, dass alles nur online zu funktionieren scheint. Es ist fast ein kultureller Shift, den wir bereitwillig mitgegangen sind. Erst beim Netzausfall merken wir die unsinnig große Abhängigkeit von der cloud.

Verdrängung der Kausalität

Joseph Weizenbaum war einer der KI-Pioniere in den Sechzigern. Fasziniert von den Möglichkeiten der algorithmischen Simulation schrieb er ein Programm namens ELIZA. Heute würden wir dieses Programm einen Chatbot nennen. Der Computer nimmt die Position einer Psycholog*in ein und gibt vor, zu „verstehen“, was die Klient*in äußert. Simples Aufgreifen des Gesagten in Form einer Frage lässt den Eindruck entstehen, ELIZA höre wirklich zu. Von der überhöhenden gesellschaftlichen Rezeption der Fähigkeiten seiner recht schlichten „künstlichen Intelligenz“ geschockt, entwickelte sich Weizenbaum zum glühenden Kritiker der Künstlichen Intelligenz.

Weizenbaum warf den nun folgenden KI-Technokraten die bewusste Verschleierung des Unterschieds zwischen (phänomenologischer) “Beschreibung“ und einer „Theorie“, die semantische bzw. kausale Zusammenhänge aufzeigt, vor. Besonders fatal wird dies bei der Modellierung des Menschen mit seinen Persönlichkeitseigenschaften. Der Vorwurf lautet: KI-Enthusiast*innen geben das Datenabbild eines Menschen für den Menschen selbst aus. Das meint, die Beschränkungen einer modellhaften Beschreibung nicht nur zu vergessen, sondern bewusst zu vertuschen. Weizenbaum prognostizierte fatale Folgen bis hin zum Verlust der Eigenständigkeit in einer von Künstlicher Intelligenz fremdbestimmten Welt digitaler Dienste.

Die Kausalität ist, anders als die Korrelation, ihrem Wesen nach überprüf-, hinterfrag- und angreifbar. Sie ist nicht proprietär und eignet sich daher weniger zum Aufbau von Machtgefälle. Die oben (im Abschnitt „Das Ende der Theorie“) zitierte radikale Position von Chris Anderson muss vor diesem Hintergrund als machtbewusst interpretiert werden. Daher ist es nur folgerichtig, dass Anderson die klassische Theoriebildung in der Physik als unzureichend diskreditiert, nämlich als
“ >> Schöne Geschichten <<-Phase einer Disziplin, die an Datenhunger litt“[2]. Hier manifestiert sich der Irrglaube, dass qualitative Methoden „Geschichten interpretieren“, während quantitative Methoden „Tatsachen produzieren“. Anderson geißelt NonBigData-Ansätze schlichtweg als statistisch zu schwach fundiert.

Das, was Paul du Gay und Michael Pryke über die Buchhaltung schrieben, nämlich „dass die Werkzeuge […] nicht einfach nur die Messung der wirtschaftlichen Aktivität erleichtern, sondern dass sie auch die Realität verändern, die mit ihr gemessen werden soll“, gilt in gesteigertem Maße auch für die Kopplung von BigData-Analysen mit Methoden der Künstlichen Intelligenz.

„Verändere die Instrumente, und Du wirst die gesamte Sozialtheorie verändern, die mit ihnen zusammenhängt.“ (Bruno Latour)[3]

So wie der Fordismus mit seinen Innovationen rund um das Fließband nicht nur als Werkzeugsammlung gesehen werden kann, und neben der Arbeit gleich die ganze Gesellschaft transformierte, so kreiert der Doppelpack aus BigData und KI machtbewusst eine Welt des Wissens, die ebenfalls die Subjekte und Objekte der Wissensgesellschaft verändert. Das umfasst auch unsere Sozialität, also das Verständnis, wie wir menschliche Netzwerke und Gemeinschaften verstehen.

[1] Chris Anderson, Das Ende der Theorie in „Big Data - Das neue Versprechen der Allwissenheit“, Suhrkamp, 2013.
[2] Ebd.
[3] Bruno Latour, „Tarde's idea of quantification“ in The Social after Gabriel Tarde, 2009
http://www.bruno-latour.fr/sites/default/files/116-CANDEA-TARDE-FR.pdf