Von Jochen Mitschka.
Am 1.10. erschien im gemeinnützigen Verein "Der Politikchronist e.V. i.Gr." das Buch "Greta, Klima und Corona". Da wir immer stärker auf eine Situation hinsteuern, in der nun nach dem Gesundheits-Notstand wegen Corona, der Klima-Notstand folgt, sollte interessant sein, wer die treibenden Kräfte hinter der Klimabewegung sind, und was sie planen. Das Buch gibt darauf Antworten und widmet Kapitel auch den Zusammenhängen von Corona und Klima, sowie dem so genannten "Great Reset" und der Aussage von immer mehr Politikern, dass "es nie mehr wie vor Corona" sein wird.
Hier nun ein Auszug aus dem Buch, das zu großen Teilen auf Recherchen von Cory Morningstar basiert:
Die kalkulierte Zerstörung des Sozialen
»Es ist eine nie dagewesene Koalition von Unternehmensnetzwerken, die sich zusammengefunden haben, um unsere Ambitionen zu steigern. Nicht nur um den einzelnen CEOs zum Erfolg zu verhelfen, das werden wir sicher tun. Sondern um tatsächlich ihre Stimmen zusammenzubringen, um zu helfen, die Kultur zu verändern. Damit der Druck auf den BRT (Business Roundtable) durch verschiedene Wirtschaftspublikationen oder andere Personen innerhalb der Geschäftswelt abnimmt. So gibt es kulturell weniger Gegenwind für diese Art von Führung.«
So tönt Jay Coen Gilbert , Mitgründer von B Lab und B Corporations.
Cory Morningstar beginnt den letzten Artikel einer Reihe über den Great Reset mit der Erklärung von KI. Demnach bezeichnet der Begriff Künstliche Intelligenz (KI) »Systeme, die hochentwickelte Hard- und Software mit aufwendigen Datenbanken und wissensbasierten Verarbeitungsmodellen kombinieren, um Eigenschaften effektiver menschlicher Entscheidungsfindung zu veranschaulichen«. Das Weltwirtschaftsforum erkennt KI als »den Motor der vierten industriellen Revolution« an.
Morningstar aber erklärt, dass KI, wie sie von Social-Media-Plattformen angewandt wird, eine zielgerichtete, ausbeuterische Funktion »antrainiert« wird: Nutzer mit Werbung anzusprechen und maximale Werbeeinnahmen zu erzielen, indem die Aufmerksamkeit auf den Newsfeed gelenkt wird, der Nutzer so viele Stunden, Minuten und Sekunden wie möglich auf der Plattform halten soll. Diese Funktion wird von The Social Dilemma hervorgehoben, während der letztlich einzige Zweck eines jeden Unternehmens, Umsatzsteigerung und Gewinnmaximierung – ad infinitum – im Dunkeln bleibt.
Jede Technologie, die Macht hat, kann korrumpiert werden. In dieser Hinsicht ist KI vielleicht die gefährlichste, meint nicht nur Morningstar. Hacking (PC, Handys, Viren) wird durch das Einschleusen von Codes erreicht – Codes, die dann entdeckt werden können . Deep Learning, das als künstliche Intelligenz bezeichnet wird, ist eine riesige Ansammlung von Zahlen. Die KI-Modelle verändern sich ständig selbst, daher ist nicht bekannt, wie KI-Hacking erkannt werden kann – oder wird . »Stellen Sie sich zig Millionen Zahlen im Deep-Learning-Algorithmus vor, der sich ohnehin selbst aktualisiert, weil er neue Daten bekommt und sich neu trainiert. Ein paar böse Menschen verändern einfach ein paar Zahlen, und plötzlich kann es außer Kontrolle geraten.« Das bedeutet, dass es einem Hacker zum Beispiel gelingen könnte, autonome Fahrzeuge in autonome Waffen zu verwandeln, die massenhaft Menschen töten. Morningstar malt ein Schreckensbild an die virtuelle Wand: vollautonome Atomwaffen oder autonome Atomkraftwerke, bei denen Hacking – oder eine Fehlfunktion – zur Vernichtung einer ganzen Nation oder des gesamten Planeten führen könnte.
Wichtiger als das, was sowohl The Social Dilemma als auch das Center for Humane Technology durchblicken lassen, ist auch hier, was sie nicht enthüllen. Die vierte industrielle Revolution kann ohne die 5G-Infrastruktur, die das Internet der Dinge betreiben wird, nicht verwirklicht werden. »Smarte« Städte müssen im Zusammenhang mit der globalen Polizeiarbeit und dem militärisch-industriellen Komplex verstanden werden. Morningstar glaubt, dass Cybersecurity das Schlachtfeld des 21. Jahrhunderts sein wird, und zitiert eine Studie von Michael C. Horowitz u. a.:
»Das Potenzial für eine nukleare Eskalation in einem konventionellen Konflikt mit autonomen Systemen wird durch die Art und Weise verstärkt, wie autonome Systeme es den Anwendern ermöglichen könnten, schneller zu kämpfen als diejenigen, die derzeit nicht-autonome Systeme betreiben. (…) Eine Militärmacht, die stark mit KI ausgestattet ist, könnte durch autonome Systeme im Vergleich zu fern- oder von Menschen gesteuerten Systemen schnellere Operationen ermöglichen. Einige chinesische Wissenschaftler haben die Hypothese aufgestellt, dass dieser Trend zu einer ›Singularität des Schlachtfelds‹ führen könnte, bei der die Geschwindigkeit der Aktionen auf dem Schlachtfeld die Geschwindigkeit der menschlichen Entscheidungsfindung in den Schatten stellt.«
Morningstar erwähnt die Bemerkungen des stellvertretenden Verteidigungsministers Bob Work bei der Jahrestagung der Association of the U.S. Army, 4. Oktober 2016, Washington, D.C.:
Frage: »Sie haben das Thema autonome Systeme nicht erwähnt. Was denken Sie angesichts der dritten Offset-Strategie darüber, in Zukunft autonome Systeme ohne Beteiligung von Menschen Entscheidungen über Leben und Tod treffen zu lassen?«
Antwort: »Ich habe absichtlich nicht viel über die Technologie hinter dem dritten Offset gesprochen, denn in einer Zuhörerschaft wie dieser sind die operativen Konzepte und die organisatorischen Konstrukte, die diese Technologie einsetzen, das Wichtigste. Aber sagen wir mal so: Es wird Fälle geben, in denen Operationen in maschineller Geschwindigkeit ablaufen und wir uns auf A.I. und autonome Systeme verlassen müssen, um zu kämpfen.«
Automations-Voreingenommenheit ist, wenn Menschen ihr Urteilsvermögen effektiv an Maschinen abgeben:
»Von besonderer Bedeutung bei der Entwicklung intelligenter Entscheidungsunterstützungssysteme ist die menschliche Tendenz zur Automatisierungsverzerrung, die auftritt, wenn ein menschlicher Entscheidungsträger angesichts einer computergenerierten Lösung, die als richtig akzeptiert wird, widersprüchliche Informationen außer Acht lässt oder nicht nach ihnen sucht. Aufgrund eines Phänomens der kognitiven Konservation neigen Anwender dazu, Entscheidungsprozesse so weit wie möglich der Automatisierung zu überlassen, und sowohl Teams als auch Einzelpersonen sind anfällig für Automation Bias [Automations-Voreingenommenheit].«
Um das Risiko, welches mit diesem Phänomen der kognitiven Erhaltung verbunden ist, zu verstehen, schlägt Morningstar vor, sich das Beispiel des Stanislav-Petrov-Vorfalls vor Augen zu führen.
Im Jahr 1983 erkannte das satellitengestützte sowjetische nukleare Frühwarnsystem Oko, dass eine interkontinentale ballistische Atomrakete von den Vereinigten Staaten gestartet worden war. Das automatische System meldete mit »höchster« Sicherheit, dass ein US-Raketenangriff im Gange sei. Der diensthabende Oberstleutnant Stanislav Petrov war dafür verantwortlich, seine sowjetischen Vorgesetzten über den Angriff zu alarmieren. Die Sirene ertönte, während auf einem großen Bildschirm in fetten roten Buchstaben »Start« angezeigt wurde. Die Sirene heulte weiter, als der Computer einen zweiten, dritten, vierten und fünften Raketenstart identifizierte und seine Anweisung von »Start« in »Raketenschlag« änderte.
Da er an der Genauigkeit des Computersystems zweifelte, reagierte Petrov nicht mit Gegenraketen und erklärte später: »Ich hatte ein komisches Gefühl im Bauch.« Er widerstand dem Automatismus und meldete seinen Vorgesetzten eine Fehlfunktion des Systems, anstatt mit einem Gegenschlag zu reagieren. Anstatt einen Atomkrieg zu starten. Anstatt sein eigenes Urteilsvermögen an eine Maschine abzugeben. Wäre dies ein völlig autonomes System gewesen, wie von den globalen Technokraten gewünscht, wäre der Gegenschlag automatisch erfolgt, wahrscheinlich ungehindert durch menschliches Eingreifen.
Im Jahr 2003 fanden Ermittler der US-Armee heraus, dass die Voreingenommenheit für die Automatisierung unter Soldaten, die für »Patriot«-Raketen verantwortlich waren, weit verbreitet war. Sie legten ein »unhinterfragtes Vertrauen in das System« und »ungerechtfertigtes und unkritisches Vertrauen in die Automatisierung an den Tag. Im Grunde wurde die Kontrollverantwortung [an die Maschine] abgetreten.«
6G, so erläutert Morningstar, verspreche mehr biokybernetische Identität (identitätskritische Service-Architektur, sensorbasiertes maschinelles Lernen, Verteilung von Vertrauen) und Cybersicherheit. Denken wir nun an Aktivitäten, die von der Gesellschaft als kriminell angesehen werden. Anstatt mit physischen Schlüsseln oder Passwörtern wird man sich nur noch biometrisch Zugang verschaffen können. Das heißt, man braucht Köpfe (Gesichtserkennung), Augen (Retina-Scan) und Hände. Das KI-Wettrüsten zwischen China und den USA ist bereits in vollem Gange (China hat im April 2020 seine Blockchain für die globale kommerzielle Nutzung eingeführt). Morningstar ist der Auffassung, dass die Vorstellung, man könne KI regulieren und absichern, um sowohl die Privatsphäre als auch die Daten zu schützen, an eine kollektive Psychose grenze. Das seien die Lügen, die wir uns selbst erzählen, um nachts schlafen zu können.
Dann zitiert sie aus »Die vierte industrielle Revolution und ihre Auswirkungen auf den Arbeitsschutz, die Entlohnung der Arbeiter und die Arbeitsbedingungen«, vom September 2019:
»In der FIR [vierte industrielle Revolution] werden atypische Beschäftigungsverhältnisse üblich sein. Infolgedessen ist es schwierig, Arbeitsschutzleistungen und Entschädigungen zu erhalten. Übermäßiges Vertrauen in neue Technologien kann zu großflächigen oder neuen Formen von Unfällen führen. Globale Geschäftsnetzwerke werden die Zerstörung des Biorhythmus der Arbeiter, einige Krebsarten, Überarbeitung und Aufgabenkomplexität verursachen. Die soziale Entkopplung aufgrund der unabhängigen Arbeit wird ein Risiko für die psychische Gesundheit der Arbeiter darstellen. Die gewerkschaftlichen Bindungen werden schwächer werden, und es wird schwierig sein, standardisierte Arbeitsschutzbestimmungen in multinationalen Unternehmen anzuwenden.«
Tristan Harris, Mitbegründer des Center for Humane Technology, erklärt: »Im Anzapfen der Kraft von Gemeinschaften, kreativen Medien und neuen Technologien verbindet ›Unfinished‹ Vordenker, Kulturschaffende, politische Entscheidungsträger und Innovatoren, um Ideen hervorzurufen, ungehörten Stimmen Gehör zu verschaffen und Kollaborationen für eine größere Wirkung zu verfolgen. Unfinished hat seinen Hauptsitz in New York City, und seine Netzwerkpartner umspannen die ganze Welt.«
Zum Unfinished Network gehören Ashoka, Aspen Institute, Ford Foundation, For Freedoms, Georgetown University, Imperative 21, der Max Steinbeck Charitable Trust, McCourt, Mil M2, PolicyLink und The Shed.
Morningstar erläutert, warum der Wunsch nach einer »humanen Technologie« nicht in Erfüllung gehen werde, obwohl uns dies versprochen wird. Denn statt einer kollektiven Forderung der Bürger, den Vorstoß auf unbekanntes Terrain zu beenden, der selbst von den Vorantreibern dieser Technologien als extrem gefährlich und hochriskant erkannt wurde, werde ein künstlicher Diskurs fabriziert. Aus Angst vor globaler Opposition wird die Öffentlichkeit abgelenkt und ermutigt, eine Zukunft zu »fordern«, die eine »humane Technologie« ermöglicht und respektiert, wobei das Vorsorgeprinzip komplett außer Acht bleibt.
In Werbung und PR nennt man das »Krisenmanagement«: einer Krise zuvorkommen, indem die öffentliche Wahrnehmung jederzeit beobachtet, gesteuert und gestaltet wird.
Quellen und Anmerkungen:
- https://youtu.be/BRj6PKq6SoA
- https://skoll.org/contributor/jay-coen-gilbert/
- http://www.electronicsteacher.com/robotics/robotics-technology/artificial-intelligence.php
- https://www.weforum.org/communities/gfc-on-artificial-intelligence-for-humanity
- https://www.youtube.com/watch?v=bh0TXtB0NxU&feature=youtu.be
- Quelle: October 5, 2018, The Artificial Intelligence Race and the New World, Order, Council on Foreign Relations - The Malcolm and Carolyn Wiener Lecture on Science and Technology
- https://www.robinly.info/post/whats-the-future-of-ai-kaifu-lee-olaf-groth
- https://arxiv.org/abs/1912.05291
- https://www.defense.gov/Newsroom/Speeches/Speech/Article/974075/remarks-to-the-association-of-the-us-army-annual-convention/
- Weitere Lektüre: Automation Bias in Intelligent Time Critical Decision Support System, AIAA 1st Intelligent Systems Technical Conference, 20-22 September, 2004 https://arc.aiaa.org/doi/10.2514/6.2004-6313
- Mit seinen eigenen Worten: Der ehemalige sowjetische Offizier Stanislav Petrov meldete 1983 einen möglichen US-Raketenstart als Fehlalarm: https://www.youtube.com/watch?v=L7EmLf4Xlq0
- https://arxiv.org/abs/1912.05291
- https://www.sciencedirect.com/science/article/pii/S2093791119304056
- https://www.prnewswire.com/news-releases/unfinished-debuts-new-online-show-unfinished-live-exploring-whats-possible-now-in-four-part-series-301159899.html
+++
Danke an den Autor für das Recht zur Veröffentlichung des Beitrags.
+++
Bildquelle: sdecoret / shutterstock.com
+++
Ihnen gefällt unser Programm? Machen wir uns gemeinsam im Rahmen einer "digitalen finanziellen Selbstverteidigung" unabhängig vom Bankensystem und unterstützen Sie uns bitte mit Bitcoin: https://apolut.net/unterstuetzen#bitcoinzahlung
Informationen zu weiteren Unterstützungsmöglichkeiten finden Sie hier: https://apolut.net/unterstuetzen/
+++
Bitte empfehlen Sie uns weiter und teilen Sie gerne unsere Inhalte in den Sozialen Medien. Sie haben hiermit unser Einverständnis, unsere Beiträge in Ihren eigenen Kanälen auf Social-Media- und Video-Plattformen zu teilen bzw. hochzuladen und zu veröffentlichen.
+++
Abonnieren Sie jetzt den apolut-Newsletter: https://apolut.net/newsletter/
+++
Unterstützung für apolut kann auch als Kleidung getragen werden! Hier der Link zu unserem Fan-Shop: https://harlekinshop.com/pages/apolut