Menschenbilder in der Digitalisierung

Warum es einen Konflikt zwischen dem europäischen Humanismus und dem Dataismus aus Silicon Valley bzw. Shenzhen gibt.

Teilen
von Tobias Oertel, April 1, 2019
People taking Pictures

Wir leben in einer schwierigen, gefährlichen Zeit. Überall gibt es handfeste Problemstellungen, die uns in die Verzweiflung treiben können. Müssen wir nicht einfach und schnell handeln? Warum sollten wir uns theoretisch mit Menschenbildern in der Digitalisierung auseinandersetzen? Menschenbilder sind die Grundlage von wertebasierten, moralischen Handeln. Ohne das Menschenbild des Humanismus gibt es keine Demokratie. Ohne Humanismus keine Würde und menschliche Zukunft. Dieser Humanismus wird nun von unterschiedlichen Akteuren aus dem Silicon Valley und Shenzhen radikal in Frage gestellt.

Menschenbilder als Grundlage von Systemen

Bewusste oder unbewusste Menschenbilder sind die Grundlage für die Systeme, die wir schaffen, um unsere Zusammenarbeit zu organisieren. Menschenbilder sind die Grundlage für Organisationen und deren Regeln, Kulturen und Handeln. Wenn ich davon ausgehe, dass meine Mitarbeiterinnen motiviert werden müssen, um zu arbeiten und überwacht werden sollten, da sie faul sind, schaffe ich andere Prozesse und Regeln, als wenn ich glaube, dass diese eine eigene Motivation haben und selbstverantwortlich arbeiten können. Wenn ich glaube, dass meine Mitarbeiterinnen nur durch monetäre Anreize bewegt werden und arbeiten, dann behandle ich diese anders, als wenn ich glaube, dass auch sie Menschen sind, die ihre Potenziale verwirklichen wollen.

Mein Selbstbild und das Bild, das ich von anderen habe, beeinflusst mich in meiner Entscheidung, was für ein System ich wähle, um gemeinsam zu arbeiten. Dies geschieht bewusst, aber auch oft unbewusst. Häufig werden bestehende Modelle übertragen und damit das dort beinhaltete Menschenbild einfach unmündig übernommen. Wenn ich ein Bonus-System in einem Unternehmen implementiere, das einzelne Individuen bevorzugt, wenn diese herausragend arbeiten, also besser sind als alle anderen, schaffe ich gleichzeitig eine Konkurrenzsituation zwischen den Mitarbeiterinnen und unterbinde so jegliche wirklich effektive Kollaboration. Das eigentliche Ziel des Systems wird die monetäre Anerkennung. Damit ist der persönliche Erfolg wichtiger als der gemeinsame. Dies ist natürlich stark vereinfacht, soll aber nur als Beispiel dafür dienen, wie mein Menschenbild einen Mechanismus schafft, der die Dynamik und Spielregeln des Systems maßgeblich bestimmt und prägt und damit alle, die in diesem System wirken. Das Bild, welches ich von mir selbst habe, ist natürlich ebenso wichtig. Glaube ich, dass ich viel klüger, effektiver und disziplinierter bin, als alle anderen, dann fällt es mir schwer, meinen Mitarbeiterinnen Verantwortung abzugeben und ihnen zu vertrauen, dass sie ihre Arbeit gut machen. Dies wirkt sich wiederum auf mein Handeln aus. Ich werde sie nicht ernst nehmen und ihnen nicht auf Augenhöhe begegnen können. Die Menschenbilder, bewusst oder unbewusst, sind mitverantwortlich für die Systeme, die wir schaffen.

Menschenbild des Humanismus

Seit der Aufklärung und vor allem seit Denkern wie Immanuel Kant, erkennen wir jeden Menschen als ein Individuum an, welches von Geburt an die Fähigkeit hat, rational zu denken. Diese Fähigkeit ermöglicht es jedem Menschen, sich aus der Unmündigkeit zu befreien. Rückführend auf diese Eigenschaft sind alle Menschen von Geburt an gleich und haben dementsprechend gleiche Rechte und Pflichten. Dies ist die Grundlage des Humanismus. Auf diesem Menschenbild basieren die Menschenrechte und auch das Grundgesetz: alle Menschen sind vor dem Gesetz gleich.

Aufgrunddessen darf auch jede Bürgerin und jeder Bürger durch Wahlen am Gemeinwesen teilnehmen. Das Menschenbild gesteht jedem zu, für sich rational zu entscheiden, welche Entscheidung die richtige für die eigene und die gemeinsame Zukunft der Gesellschaft ist. Dieses Menschenbild ist die Grundlage der humanistischen Demokratie. In der digitalen Transformation wird dieses Menschenbild unterwandert. Dies ist eine existenzielle Gefahr für unsere Demokratie.

Menschenbild des Dataismus

Das unbewusste Menschenbild des 21. Jh. entsteht im Silicon Valley und in Shenzhen in China. Dies sind die digitalen Machtpole unserer Zeit. Hier entsteht Innovation, hier wird die digitale Infrastruktur unserer Zeit erschaffen. Als Beispiel werde ich eine Organisation nehmen und exemplarisch behandeln: Facebook. Man könnte aber genauso gut WeChat, Google/Baidu, Amazon/AliBaba/Tencent, Apple/Microsoft/Huawei nehmen. Facebook eignet sich am besten durch die bereits entfachte mediale Debatte und den direkten Einfluss auf unser demokratisches System. Daher ist es ein greifbares Beispiel als die anderen.

Das Produkt Facebook sollte jedem bekannt sein. Das verborgene Menschenbild nicht. Dieses basiert auf Methoden aus der Verhaltensforschung. Auf Grundlage der Daten, die über mich gesammelt werden, wenn ich mich auf der Plattform bewege, wird ein Datenprofil erstellt. Auf dem Profil aufbauend, versuchen Algorithmen mir Werbung zu zeigen, die zu mir passt. Je mehr Daten ich liefere, desto exakter wird der Algorithmus. Welche Ausmaße dies annehmen kann, machen Forscher der Cambridge-Universität deutlich. Wu Youyou und ihre Ko-Autoren Michal Kosinski und David Stillwell setzten einen neuen Algorithmus ein, der die Persönlichkeit anhand von Facebook-Likes einschätzte. Das Ergebnis der Studie war, das ein Algorithmus die Persönlichkeit einer Person besser einschätzen kann, als deren Freunde oder Bekannte.

Die Aussagekraft eines Datensatzes misst sich unter anderem an seiner Größe. Facebook hat über zwei Milliarden aktive Nutzerinnen und Nutzer. Diese Nutzerinnen und Nutzer und ihre Daten sind nicht nur das Produkt von Facebook, sondern auch ein großer vermessbarer sozialer Raum, ein riesiger Datensatz, der größte der Geschichte, mit dem man experimentieren kann. Das bekannteste Beispiel ist der Skandal über manipulierte Nachrichtenfeeds bei Facebook Anfang 2013. In einem Testdesign wurden Nutzerinnen und Nutzern einmal primär positive und primär negative Nachrichten angezeigt. Im nächsten Schritt wurde ihr Verhalten beobachtet. Verwunderlicherweise postete die Testgruppen ab einem bestimmten Zeitpunkt entweder positive, oder negative Beiträge. Die Ergebnisse dieser Tests werden unter anderem genutzt, um die Nutzer von dem Produkt abhängiger zu machen und Teil der Gewohnheiten in ihren Lebenswelten zu werden, so beschreibt es Nir Eyal in seinem Buch “Hooked”. Wir haben es also mit einem Menschenbild zu tun, welches den Menschen nicht als ein rationales Individuum betrachtet, sondern als ein von Emotionen und Affekten gesteuertes Tier, welches durch Experimente beobachtbar ist. Es ist ethisch vertretbar, dieses Tier zu manipulieren und unmündig den eigenen Regeln zu unterwerfen, denn es hat keinen freien Willen. Dieses Tier offenbart sich mir nur als Summe seiner Daten. Kann unsere humanistische Demokratie weiterexistieren, wenn sie von diesem Menschenbild unterwandert wird? Nein.

Phase 1: Auf Taubenfüßen

In der Dokumentation: “Fake America Great Again - Wie Facebook und Co. die Demokratie gefährden” von Arte wird dies deutlich dargelegt. Mit Hilfe von Millionen von gestohlenen Facebookdatenprofilen gelingt es dem Datenanalyse-Unternehmen Cambridge Analytica, sehr genaue psychologische Profile mit exakten Datenprofilen zu verbinden. Nun ist politischer Wahlkampf auf einer anderen Ebene möglich.

Nutzerinnen bekommen in Werbeanzeigen exakt für ihre psychische Konstitution zugeschnittene Botschaften zugespielt. Das verwerfliche daran: Kurz vor der Wahl werden in großen Umfang sogenannte “Dark Ads” für den Wahlkampf genutzt. Dies sind Werbeanzeigen, die nur für bestimmte Nutzerinnen sichtbar sind, und sonst für niemanden. Die Botschaft entzieht sich dementsprechend jeglicher demokratischen Kontrolle und ist in jedem Fall ein Einfallstor für Manipulation durch gezielte Falschinformation. Dies ist aber nur der relativ unkreative Anfang des Dataismus. Fake News und Populismus sind alte Feinde der Demokratie die mit neuen digitalen Waffen ausgestattet, eine neue Schlagkraft entwickelt haben. Die eigentliche Gefahr liegt aber etwas weiter in der Zukunft.

Phase 2: Der Sturm

2048 ist die Vermessung und Überführung der Welt in digitale, messbare Datenskalen weiter fortgeschritten. Wir erinnern uns: 2007 kam das erste Iphone auf den Markt. Dies ist nun fast zwölf Jahre her. Eine unglaublich kurze Zeitspanne, wenn wir reflektieren, welchen Einfluß diese Entwicklung auf unsere Gesellschaft hatte. Technischer Fortschritt verändert unser Leben rasant und Daten sind daurch immer leichter zu erfassen. Je mehr Daten es über uns gibt und je zentraler diese gesammelt werden, desto vorhersagbarer werden unsere Handlungen. Dies ist der eigentliche Kernwert von Daten. Je mehr Daten ich als Organisation besitze, desto genauer kann ich menschliches Verhalten vorhersagen. Dies ermöglicht es mir, meine Handlungen danach auszurichten, oder im Endeffekt auf das Verhalten einzuwirken. Ab einem bestimmten Zeitpunkt wird der Algorithmus nicht nur besser als meine Freunde, Familie und Partner wissen, wer ich bin, wie ich mich verhalte, was ich mag und was ich in Zukunft kaufen oder wählen werde, sondern auch besser als ich selber. Zumindest besagt dies die dataistische Ideologie im Silicon Valley und Shenzhen.

Dies ist natürlich möglich, sie spricht mir als Menschen jedoch jedes rationale Handeln ab. Dies ist ein Menschenbild, welches mich nur als Summe meiner Affekte, Emotionen, Gewohnheiten und Vorlieben sieht. Also als einen absolut unmündigen Menschen. Emotionen sind darin Daten, um Entscheidungen zu treffen, um uns zu motivieren, um uns zu schützen und damit wir uns selber verstehen können.

Phase 3: Auflösung

Das hier entstehende Menschenbild erinnert stark an das newtonsche Weltbild. Newton sah das gesamte Universum als eine unbeseelte Maschine, die auf das Ursache-Wirkungsprinzip reduziert werden konnte und damit mathematisch in vollem Umfang erklärbar war. Es ist ein Epochenwitz, dass der Mensch die neu entstehende Technik als Metapher nutzt, um sich das Menschsein und die Welt zu erklären. Die Dataisten brauchen keine Welttheorie, so wie Newton. Sie begnügen sich mit einer vollumfassenden Theorie des Lebens. Sie interpretieren Darwin so, dass jegliches Leben ein Computerprogramm ist, welches in einer großen Simulation den Selektionsalgorithmus durchlebt. Der Darwin-Algorithmus entwickelt sich in eine Zukunft, beinhaltet also ein größeres Ziel. Der evolutionäre Weg bis zum Homo Sapiens ist nicht eine von unendlichen Möglichkeiten, sondern eine logische Konsequenz. Dies führt Darwins natürliche Selektion ad absurdum, wird aber ignoriert. Erster Stop Mensch. Nächster Stop Transzendenz:

Jegliches Leben ist dabei eine Ansammlung von Daten und besteht aus einem oder vielen komplexen Algorithmen. Jeder Mensch ist dementsprechend nicht mehr und nicht weniger als ein Computerchip in einem großen Computer, dem Computer der menschlichen Zivilisation. Er ist also kein Tier, oder Versuchsobjekt mehr, wie in den Anfängen des Dataismus, sondern Teil einer großen lebenden Maschine. Ziel dieser großen lebenden Maschine ist das Überleben. Um zu überleben und schneller zu rechnen, braucht man bestimmte Computerchips nicht mehr, denn diese sind überflüssig und tragen nicht genug zur Rechenleistung des Gesamtsystems bei.

Es handelt sich also um eine Kombination aus einer konsequent weiter gedachten “Quantified Self” Idee, mit Sozialdarwinismus. Die Quantified Self Bewegung, auch bekannt als “Lifelogging”, versucht das Datensammeln in jeden Aspekt des persönlichen Lebens einzubringen, um darüber Erkenntnisse und Optimierungsmöglichkeiten zu erschließen.

So schnell sind wir bei einem sozialdarwinistischen Gedankenmodell, welches seinen Ursprung im Neokapitalismus hat. Dataismus ist alter Wein in neuen Schläuchen, eine menschenfeindliche Idee, mit einer digitalen Metapher. Es wundert nicht, dass diese Ideen aus dem Silicon Valley entspringen, der Hochburg des datengetriebenen Neokapitalismus. Ein Computerchip braucht keine Rechte, da er nur aus der Summe seiner Daten besteht. Das Individuum lässt sich in viele kleinere Datengruppen einteilen und kann daher kein Rechtssubjekt mehr darstellen. Die Menschen im Dataismus haben weder Rechte noch Würde. Sie sind unmündige Teile eines großen Ganzen. Dies erinnert stark an den Kommunismus, war da nicht was, Shenzhen?

Jaron Lanier beschreibt die Dataisten als kybernetische Totalitäre und stellt die sechs Kernglaubenssätze wie folgt dar:

  • Kypernetische Informationsmuster stellen den besten und ultimativen Weg dar, Wirklichkeit zu verstehen.
  • Menschen sind nicht mehr als kybernetische Muster.
  • Subjektive Erfahrungen existieren nicht, oder sind nicht wichtig, weil sie eine Art peripherer Effekt sind.
  • Was Darwin in der Biologie beschreibt, ist de facto die einzige, überlegene Beschreibung aller Kreativität und Kultur.
  • Qualitative und quantitative Aspekte von Informationssystemen werden sich unaufhaltsam durchs Moors Law beschleunigen.
  • Biologie und Physik wird mit Computerwissenschaften verschmelzen (es entsteht die neue Biotechnologie und Nanotechnologie). Dies hat zur Folge, dass das Leben und das physische Universum eins werden. Dies bietet eine unglaubliche Möglichkeit der Gestaltung. Dies wird recht schnell passieren, vielleicht im Jahre 2020 und Leben auf der Erde und im Universum für immer verändern. Mensch zu sein, nach diesem Moment, wird entweder unmöglich, oder sehr anders als wir es uns jetzt vorstellen können.

Yuval Noah Harari macht uns in seinem Buch “Homo Deus” darauf aufmerksam, dass durch die beschriebenen möglichen Entwicklungen und neuen Glaubenssätze sich Menschen, das erste Mal nicht mehr durch Kultur, sondern auch durch Biologie voneinander unterscheiden könnten. Es entstehen nicht nur neue Klassen, sondern neue Formen des Menschseins. Der Humanismus steht im 21. Jahrhundert vor einer großen Herausforderung. Diesmal könnte es wirklich zum Ende der Geschichte kommen, der menschlichen Geschichte. In jedem Fall wird der Humanismus und die damit einhergehenden Menschenrechte und die Menschenwürde um ihr Überleben kämpfen müssen, und damit auch unsere Demokratie.

 

Hat dir dieser Artikel gefallen? Hier kannst du Tobias' ersten Artikel auf tbd* Gegen eine sinnlose Freitheit lesen und hier den zweiten Kraft der Menschlichkeit.

Dieser Artikel erschien zunächst auf Tobias' Blog.

Tobias Oertel ist Experte für die Themen Innovation und Digitalisierung in der Zivilgesellschaft. Er ist Mitgründer der Engagementplattform für Digitalexpert*innen und Kreative youvo.org. Zu gesellschaftlichen Themen schreibt er auf seinem Medium-Blog und auf Twitter.