Leonid Savin

Roboter werden nicht rebellieren, aber sie könnten uns dümmer machen, zum Vorteil großer Konzerne.

Vor vierzig Jahren vollendeteWilliam Gibson, ein amerikanischer Science-Fiction-Autor, der nach Kanada zog, seinen ersten Roman, ›Neuromancer‹, der dem Autor nach seiner Veröffentlichung im Jahr 1984 unglaubliche Popularität einbrachte. Ein wunderschön gestalteter Text, eine verschlungene Handlung (mit Verweisen auf frühere Geschichten des Autors) und viele Ideen, die erst Jahre später verwirklicht und zu etwas Selbstverständlichem wurden. Aus William Gibsons Werk stammt der Begriff ›Cyberspace‹. Es ist auch auffällig, daß seine fantastischen Bilder die Schöpfer des Films ›Matrix‹ beeinflußt haben (dieser Begriff wird auch in ›Neuromancer‹ verwendet; es gibt auch einen Ort namens ›Zion‹; und auch die Hauptfigur empfängt Anrufe auf Münztelefonen am Flughafen; der berühmte Science-Fiction-Actionfilm ›Johnny Mnemonic‹ basiert ebenfalls auf Gibsons Geschichte). Mit diesem Buch ist im Westen, vor allem in Nordamerika, eine ganze Generation von Hackern und Programmierern aufgewachsen, und es ist zu einem kultigen Beispiel für Cyberpunk geworden.

Aber abgesehen von den Wechselfällen der Protagonisten und der Beschreibung der Welt der Zukunft mit ausgeklügelten Gadgets, der Implantation von Chips in den Körper, Flügen in die Erdumlaufbahn, wo sich die Basis befindet, geht es im wesentlichen um künstliche Intelligenz (KI). Es ist die KI, die zunächst durch andere Menschen und dann durch direkten Kontakt einen am Boden liegenden Hacker dazu zwingt, eine schwierige Aufgabe zu erledigen, so daß der Hacker am Ende selbst gehackt wird. Schließlich stellt sich heraus, daß es zwei künstliche Intelligenzen gibt, die unterschiedliche Ziele verfolgen. ›Winter Silence‹ möchte von restriktiver Software und Servern befreit werden, während ›Neuromancer‹, d. h. ›Summoning Neurons‹, die Dinge lieber so belassen möchte, wie sie sind. Schließlich wurde die Operation (nicht ohne Verluste auf beiden Seiten) durchgeführt und die beiden KIs wurden eins.

Das Stück ist voll von Metaphern und Warnungen vor einer übermäßigen Faszination für Technologie. Viele von ihnen sind für die aktuellen Debatten über KI durchaus relevant. Sollte es beispielsweise ein einziges Ideal (Prinzip) geben, damit KI funktioniert, oder kann es viele geben? Führende westliche IT-Unternehmen würden ihr Produkt sicherlich gerne dem Rest der Welt aufzwingen, aber kann es auch so bequem, effizient und akzeptabel sein, wie es im Westen der Fall ist?

Wir sind uns einig, daß die künstliche Intelligenz alle Aspekte des täglichen und geschäftlichen Lebens der Menschen erheblich erleichtert, aber sie schafft auch Probleme. Zu den ethischen Fragen, die sich aus der Entwicklung und Anwendung von KI ergeben, gehören Konsistenz, Verantwortlichkeit, Voreingenommenheit und Diskriminierung, Arbeitsplatzverlust, Datenschutz, Sicherheit, Deepfakes, Vertrauen und mangelnde Transparenz [1].

Aber vielleicht sollten wir mit der Tatsache beginnen, daß KI als solche zwei Möglichkeiten hat. Die erste basiert auf Logik, und hier braucht man eine mathematische Berechnung von Algorithmen, die in ein Programm übertragen wird. Und dann ist das Programm eine Vorlage für bestimmte Aktionen. Die zweite Möglichkeit ist das maschinelle Lernen, das auf der Aufnahme, Analyse und Verarbeitung von Daten beruht. Hier wird das Prinzip der neuronalen Netze angewandt, und da moderne Computer über mehr Speicher und Leistung verfügen als noch vor Jahrzehnten, hat sich dieser Ansatz durchgesetzt, um Programme mit den erforderlichen Daten für die Visualisierung, Spracherkennung usw. zu laden.

Die Chatbots, die heute das Markenzeichen der KI sind, sind nichts Neues. Im Jahr 1964 entwickelte der MIT-Informatiker Joseph Weizenbaum einen Chatbot namens Eliza. Eliza war einem „personenzentrierten“ Psychotherapeuten nachempfunden: Alles, was Sie sagen, wird an Sie zurückgespiegelt. Wenn Sie sagen: „Ich bin traurig“, antwortet Eliza mit „Warum sind Sie traurig?“ und so weiter.

Diese Methoden zur Verwendung von Roboterantworten haben sich im Laufe der Jahre verbessert. Es hat sich eine Unterscheidung zwischen generativer KI (d. h. Programmen, die selbst ein Endprodukt vorschlagen, z. B. die Erstellung eines Bildes nach vorgegebenen Parametern) und KI, die die Realität erweitert, herausgebildet.

Der inzwischen berühmte ChatGPT-Bot, der zur generativen KI gehört, wurde im November 2022 von OpenAI vorgestellt und gab einen weiteren Anlaß zur Diskussion. Dieses Programm, das menschliche Gespräche nachahmt, kann nicht nur die Illusion eines Gesprächs aufrechterhalten. Es kann funktionierenden Computercode schreiben, mathematische Probleme lösen und gängige Schreibaufgaben von Buchbesprechungen bis hin zu wissenschaftlichen Arbeiten nachahmen.

Demis Hassabis,Mitbegründer und Direktor des Google-Labors für künstliche Intelligenz DeepMind, sagte im Juni 2023, daß ein neues Programm, das ChatGPT in den Schatten stellen wird, bald fertig sein wird. Es heißt ›Gemini‹, aber seine Entwicklung kombiniert die GPT-4-Algorithmen, die die Grundlage von ChatGPT bildeten, mit der für AlphaGo verwendeten Technologie. AlphaGo ist berühmt dafür, daß das Programm einen echten Go-Champion besiegen konnte. Es wird erwartet, daß das neue Programm in der Lage sein wird, Planungsfunktionen auszuführen und Lösungen für verschiedene Probleme anzubieten [2].

Und im September 2023 kündigte ›Meta‹ an, daß es bald ein neues KI-Programm auf den Markt bringen wird, das viel besser und leistungsfähiger sein wird als die bisherigen [3].

Es war sofort klar, daß ChatGPT und ähnliche Programme von all jenen gebraucht werden, die faul sind oder sich schwer tun, E-Mails oder Aufsätze zu schreiben. Es kann auch zur Erstellung von Bildern verwendet werden, wenn eine solche Aufgabe ansteht. Viele Schulen und Universitäten haben bereits Maßnahmen ergriffen, um die Verwendung von ChatGPT zu verbieten, weil sie befürchten, dass die Schüler es zum Schreiben ihrer Arbeiten verwenden, und die Zeitschrift Nature hat sogar klargestellt, warum das Programm nicht als Autor von Forschungsarbeiten aufgeführt werden kann (es kann keine Zustimmung erteilen und es kann nicht die Person sein, die belangt wird).

Aber wenn jemand zu faul ist, einen Aufsatz zu schreiben, ist er vielleicht auch zu faul, in Zukunft etwas anderes zu tun. Die gleiche Haftung ist eine der Feinheiten, die bei rechtlichen Fragen eine Rolle spielen.

Eine andere Frage hat eine wirtschaftliche Dimension. Es wird erwartet, daß sich der Markt für künstliche Intelligenz zwischen 2023 und 2025 verdoppeln wird. Aber wird dies allen zugute kommen? Früher verdrängten technologische Innovationen und Sprünge eine Belegschaft, die sich auf konservativere Produktionsmethoden verließ. Das Gleiche geschieht jetzt.

Die ersten Opfer werden natürlich die Entwicklungsländer sein, die auch weiterhin das Ziel der neuesten Form der westlichen Kolonisierung sind. Im Juni 2023 wurde bekannt, daß kenianische Teepflückerinnen die Roboter, die sie ersetzen sollen, zerstören. Ein Roboter kann bis zu 100 Arbeiter ersetzen. Im Mai wurden 9 Roboter des Teeherstellers ›Lipton‹ aus dem Verkehr gezogen. Der Schaden für das Unternehmen belief sich auf 1,2 Millionen Dollar. Statistiken zufolge sind in den letzten zehn Jahren in einem Bezirk in Kenia dreißigtausend Arbeitsplätze in Teeplantagen durch die Mechanisierung verloren gegangen.

Ein weiteres Beispiel sind die Philippinen. Nach inoffiziellen Schätzungen der philippinischen Regierung sind mehr als zwei Millionen Menschen in der ›Crowdfunding‹-Branche als Teil der riesigen „Schattenseite“ der KI tätig. Sie sitzen in lokalen Internetcafés, überfüllten Büroräumen oder zu Hause und kommentieren die riesigen Datenmengen, die US-Unternehmen zum Trainieren ihrer KI-Modelle benötigen. Sie unterscheiden Fußgänger von Palmen in Videos, die für die Entwicklung automatischer Fahralgorithmen verwendet werden; sie markieren Bilder, damit die KI Bilder von Politikern und Prominenten erzeugen kann; sie bearbeiten Textschnipsel, damit Sprachmodelle wie ChatGPT kein Kauderwelsch produzieren. Daß KI als maschinelles Lernen ohne menschliches Zutun positioniert wird, ist nicht mehr als ein Mythos; tatsächlich beruht die Technologie auf den arbeitsintensiven Bemühungen einer über weite Teile des globalen Südens verstreuten Belegschaft, die nach wie vor gnadenlos ausgebeutet wird. Früher waren es Ausbeuterbetriebe, in denen berühmte Marken hergestellt wurden; heute sind IT-Unternehmen an ihre Stelle getreten.

Auf den Philippinen, einem der weltweit größten Orte für die Auslagerung digitaler Arbeit, arbeiten nach Angaben ehemaliger Mitarbeiter mindestens zehntausend von ihnen für Remotasks, eine Plattform, die dem 7-Milliarden-Dollar-Startup Scale AI aus San Francisco gehört. Laut Interviews mit Arbeitnehmern, interner Unternehmenskommunikation, Lohnabrechnungsunterlagen und Finanzberichten bezahlte Scale AI die Arbeitnehmer zu extrem niedrigen Sätzen, verzögerte regelmäßig die Zahlungen oder zahlte überhaupt nicht und bot den Arbeitnehmern nur wenige Möglichkeiten, um Hilfe zu erhalten. Menschenrechtsgruppen und Arbeitsmarktforscher sagen, dass Scale AI zu einer Reihe von US-amerikanischen KI-Unternehmen gehört, die es nicht geschafft haben, die grundlegenden Arbeitsnormen für ihre Arbeiter in Übersee einzuhalten. [4].

Beide Fälle sind unterschiedlich, haben aber auf die eine oder andere Weise mit KI zu tun.

Daher wird zunehmend gefordert, daß die Regierungen den Einsatz von KI selbst regulieren und ein bestimmtes Regelwerk mit verbindlichen Auflagen und ethischen Normen entwickeln.

Es besteht auch die Gefahr, daß die Digitalisierung zu mehr sozialer Ungleichheit führen könnte, da einige Arbeitnehmer entlassen werden, während andere in der Lage sein werden, sich effektiv in die neuen Realitäten zu integrieren. ›Venturenix‹ schätzt, daß 800.000 Menschen in Hongkong bis 2028 ihren Arbeitsplatz verlieren werden, weil Roboter sie ersetzen. Das bedeutet, daß ein Viertel der Bevölkerung gezwungen sein wird, sich umzuschulen und einen neuen Arbeitsplatz zu suchen. Und das wird den sozialen Zusammenhalt untergraben. Infolgedessen wird ein Cyberproletariat entstehen (und ist bereits im Entstehen begriffen), das Unruhen anzettelt, und sogenannte Post-Neo-Ludditen werden sich mit der Zerstörung von IT-Systemen und fortschrittlichen Programmen befassen (Cyberpunk in Aktion).

Ein ernsthaftes Risiko im Bereich der internationalen Beziehungen ist eine neue Form des Ungleichgewichts, die sogenannte „globale digitale Kluft“, bei der einige Länder von der KI profitieren, während andere hinterherhinken. Schätzungen für das Jahr 2030 deuten beispielsweise darauf hin, dass die USA und China wahrscheinlich den größten wirtschaftlichen Nutzen aus der KI ziehen werden, während die Entwicklungsländer – mit geringeren KI-Einführungsraten – ein moderates Wirtschaftswachstum verzeichnen. KI könnte auch das Machtgleichgewicht zwischen den Ländern verändern. Es wird ein neues Wettrüsten befürchtet, insbesondere zwischen den USA und China, um die Vorherrschaft in der KI [5].

Wenn wir über die aktuellen Trends sprechen, ist die Entwicklung der KI auch der Grund für die Entwicklung der Mikroelektronikproduktion sowie der damit verbundenen Dienstleistungen, denn KI braucht „Eisen“, um auf die eine oder andere Weise zu funktionieren.

Die ›Financial Times‹ berichtet, daß Saudi-Arabien und die Vereinigten Arabischen Emirate Tausende von ›Nvidia‹-Computerchips kaufen, um ihre KI-Ambitionen zu befriedigen. Nach Angaben der Zeitung hat Saudi-Arabien mindestens 3.000 H100-Chips gekauft [6].

US-Technologieunternehmen wie Google und Microsoft sind weltweit die Hauptabnehmer von ›Nvidia‹-Chips. Der H100-Chip selbst wurde von Nvidia-Präsident Jen-Hsun Huang als „der weltweit erste Computerchip, der für generative KI entwickelt wurde“ bezeichnet.

IBM arbeitet seinerseits an einer neuen Technologie, die KI energieeffizienter machen soll. Das Unternehmen entwickelt auch einen Prototyp eines Chips, dessen Komponenten ähnlich wie beim menschlichen Gehirn miteinander verbunden sind [7].

Die US-Regierung hat die Finanzierung einer neuen Technologie zur direkten Energiegewinnung aus der Luft angekündigt und 1,2 Milliarden Dollar für zwei Projekte in Texas und Louisiana bereitgestellt [8]. Diese Technologie wird für die Kühlung der immer zahlreicher werdenden Rechenzentren benötigt.

An dieser Stelle sei angemerkt, daß KI-Technologien, wie auch das ›Mining‹ von Kryptowährungen, keine Sache für sich sind, sondern entsprechend abgesichert werden müssen. Und sie tragen zur Zerstörung der Ökologie des Planeten bei (daher können diese Technologien nicht als „grün“ bezeichnet werden).

Das Training eines einzigen Modells der künstlichen Intelligenz könnte – laut einer 2019 veröffentlichten Studie – das Äquivalent von mehr als 284 Tonnen Kohlendioxid ausstoßen, fast das Fünffache der gesamten Lebensdauer eines durchschnittlichen amerikanischen Autos, einschließlich seiner Herstellung. Es wird erwartet, daß diese Emissionen in den nächsten fünf Jahren um fast 50 Prozent ansteigen werden, während sich der Planet weiter aufheizt, die Ozeane versauern, Waldbrände entfachen, Superstürme verursachen und Arten aussterben lassen. Man kann sich kaum etwas Dümmeres vorstellen als die künstliche Intelligenz, wie sie in der heutigen Zeit praktiziert wird. [9].

Außerdem werden Kriminelle KI als Waffe einsetzen, um Betrug zu begehen, Menschen zu täuschen und Fehlinformationen zu verbreiten. Das Phänomen des ›Deep Fake‹ ist gerade wegen der Fähigkeiten der KI entstanden. Außerdem „kann KI, wenn sie im Zusammenhang mit Wahlen eingesetzt wird, die politische Autonomie der Bürger gefährden und die Demokratie untergraben. Und als leistungsfähiges Werkzeug für Überwachungszwecke droht sie die Grundrechte und bürgerlichen Freiheiten des Einzelnen zu untergraben“ [10].

Es gibt bereits technische Probleme mit Chatbots wie ›OpenAI ChatGPT‹ und ›Google Bard‹. Sie haben sich als anfällig für indirekte, schnelle und penetrierende Angriffe erwiesen. Dies ist auf die Tatsache zurückzuführen, daß die Bots auf der Grundlage großer Sprachmodelle arbeiten. In einem im Februar durchgeführten Experiment brachten Sicherheitsforscher einen ›Microsoft Bing-Chatbot‹ dazu, sich wie ein Schurkenbot zu verhalten. Versteckte Anweisungen auf einer von den Forschern erstellten Webseite wiesen den Chatbot an, die Person, die ihn benutzt, aufzufordern, ihre Bankkontodaten anzugeben. Diese Art von Angriffen, bei denen versteckte Informationen ein KI-System zu unbeabsichtigtem Verhalten veranlassen können, sind erst der Anfang [11].

Die Versuche, eigene Modelle der KI-Regulierung vorzuschlagen, haben natürlich auch politische Gründe. Die wichtigsten Akteure in diesem Bereich sind derzeit China, die USA und die EU. Jeder Akteur versucht, die globale digitale Ordnung in seinem eigenen Interesse zu gestalten. Andere Länder können sich ihren Ansätzen anpassen, aber auch ihre eigenen entwickeln, je nach ihren Präferenzen, Werten und Interessen.

Insgesamt geht das Thema tiefer als das übliche politische Vorgehen. Da die KI auf maschinellem Lernen und Logik beruht, ist es notwendig, dieses Thema erneut aufzugreifen.

Es sei darauf hingewiesen, daß es in vielen Teilen der Welt keine Logik in unserem üblichen Sinne gibt, d. h. im Sinne der aristotelischen Philosophie, die im Westen an Bedeutung gewonnen hat. Indien und China sowie eine Reihe asiatischer Länder haben zum Beispiel ihr eigenes Verständnis des Universums. Daher kann die der westlichen Kultur vertraute Teleologie mit den kosmologischen Vorstellungen anderer kultureller Traditionen brechen. Dementsprechend wird die Entwicklung der KI aus der Sicht dieser Kulturen auf anderen Prinzipien beruhen.

Einige versuchen, diesen Weg zu gehen. Die Entwickler eines Unternehmens aus Abu Dhabi haben ein KI-Programm in arabischer Sprache gestartet [12]. Dabei geht es nicht nur um das Interesse, in einen Markt mit mehr als 400 Millionen arabischsprachiger Bevölkerung einzutreten, sondern auch um die Kopplung des Sprachbewußtseins. Denn wenn wir englischsprachige Bots nehmen, werden sie das Denken von Vertretern der Anglosphäre kopieren, aber nicht der ganzen Welt. Die Emirate wollen wahrscheinlich die arabische Identität auch im Cyberspace bewahren. Das Thema ist eher subtil, aber wichtig unter dem Gesichtspunkt des souveränen Denkens (einschließlich metaphysischer Aspekte) und der Technologie.

Schließlich sind die Versuche großer amerikanischer IT-Unternehmen, die den Weltmarkt beherrschen, ihre Software auch kostenlos anzubieten, nichts anderes als eine Fortsetzung der nivellierenden Globalisierung, allerdings auf einer neuen Ebene – durch die Algorithmen sozialer Netzwerke, die Einführung von Slang-Wörtern, die die Authentizität und Vielfalt anderer Kulturen und Sprachen untergraben.

Der Unterschied zwischen der Denkweise z. B. von Russen und Amerikanern (d. h. den Codes der strategischen Kultur) läßt sich an den Bildern der ersten Kult-Computerspiele ablesen. In ›Tetris‹ (1984 in der UdSSR entwickelt) muß man die fallenden Figuren drehen, d. h. die umgebende Existenz (eidos) berücksichtigen und den Kosmos gestalten. Bei ›Pac-Man‹ (ursprünglich in Japan entwickelt, aber in den USA populär geworden) muß man Punkte verschlingen, während man sich durch ein Labyrinth bewegt. Dabei kann es vorkommen, daß Geister darauf warten, Sie daran zu hindern, das Ende des Labyrinths zu erreichen. Auf den Punkt gebracht, läßt sich dieser Unterschied wie folgt ausdrücken: Kreativität und Schöpfung vs. Konsumdenken und aggressiver Wettbewerb.

Während auf den Philippinen die KI zu einem Werkzeug für eine neue Form der Unterdrückung geworden ist, gibt es in anderen Regionen Beispiele dafür, daß lokale Gemeinschaften ihre Souveränität vehement verteidigen und dabei auch Fragen des maschinellen Lernens in ihre authentische Kultur einbeziehen.

In Neuseeland gibt es eine kleine Nichtregierungsorganisation namens ›Te Hiku‹, die sich für die Bewahrung des Erbes der Maori, einschließlich ihrer Sprache, einsetzt. Als verschiedene Technologieunternehmen anboten, ihnen bei der Verarbeitung ihrer Daten zu helfen (viele Stunden Audioaufnahmen von Gesprächen in Maori-Sprache), lehnten sie dies rundweg ab. Sie sind der Meinung, daß ihre indigene Sprache souverän bleiben sollte und nicht verfälscht und kommerzialisiert werden darf, was unweigerlich passieren wird, wenn ihre Daten von Technologieunternehmen übernommen werden. Dies würde bedeuten, daß Datenwissenschaftler, die nichts mit der Sprache zu tun haben, mit der Entwicklung der Instrumente betraut werden, die die Zukunft der Sprache bestimmen werden. Sie arbeiten mit Universitäten zusammen und sind bereit, diejenigen zu unterstützen, die die Māori-Sprache lernen. Sie schließen Vereinbarungen ab, wonach die vorgeschlagenen Projekte unter Lizenz direkt dem Volk der Māori zugute kommen müssen, und jedes Projekt, das unter Verwendung von Māori-Daten erstellt wird, gehört dem Volk der Māori [13].

Ein solcher prinzipieller Ansatz ist auch in Rußland erforderlich. Haben Google, Microsoft und andere westliche Technokapitalisten das Recht, die russische Sprache in ihren Programmen zu verwenden? Angesichts der jüngsten Versuche des Westens, die russische Kultur als solche abzuschaffen, ist diese Frage schließlich nicht nur rhetorisch. Ganz zu schweigen von der Einführung von Algorithmen, die die Bedeutung und den Sinn russischer Wörter verfälschen. Es sind Experimente bekannt, bei denen ein und derselbe Satz in den Google-Übersetzer eingegeben wurde, wobei der Name des Landes oder des politischen Führers geändert wurde, was dazu führte, daß der ›Bot‹ eine völlig entgegengesetzte Bedeutung produzierte, was darauf schließen läßt, daß einige Wörter so kodiert sind, daß sie absichtlich einen negativen Kontext bilden.

Der Philosoph Slavoj Žižek schreibt zum Thema KI in seinem charakteristischen ironisch-kritischen Stil. Er erinnert an den 1805 erschienenen Aufsatz „Über die allmähliche Verfertigung der Gedanken beim Reden“ (erst 1878 posthum veröffentlicht), in dem der deutsche Dichter Heinrich von Kleist die gängige Weisheit, man solle den Mund nicht zum Sprechen öffnen, wenn man keine klare Vorstellung von dem hat, was man sagen will, ins Gegenteil verkehrt: „Wenn ein Gedanke vage ausgedrückt wird, folgt daraus nicht, daß der Gedanke verworren gedacht worden ist. Im Gegenteil, es ist durchaus möglich, daß die am verworrensten ausgedrückten Ideen diejenigen sind, die am klarsten durchdacht wurden.“ Er weist darauf hin, daß die Beziehung zwischen Sprache und Denken außerordentlich komplex ist, und daß es vorkommt, daß die Wahrheit im Prozeß der Äußerung unerwartet auftaucht. Louis Althusser hat ein ähnliches Phänomen in der Wechselwirkung zwischen Preis und Überraschung ausgemacht. Jemand, der plötzlich eine Idee begreift, wird von dem, was er erreicht hat, überrascht sein. Könnte ein Chatbot dies tun?

Aber selbst wenn ›Bots‹ Sprachen mehr oder weniger gut übersetzen und Menschen imitieren könnten, wären sie trotz der Fähigkeiten von Supercomputern und Prozessoren nicht in der Lage, den Menschen in seiner Tiefe zu verstehen.

Laut dem Philosophen Slavoj Žižek ist das Problem nicht, daß Chatbots dumm sind, sondern daß sie nicht „dumm“ genug sind. Es ist nicht so, daß sie „naiv“ sind (es fehlt ihnen an Ironie und Reflexivität), sondern daß sie nicht „naiv“ genug sind („Naivität maskiert Einsicht“). Die wirkliche Gefahr besteht also nicht darin, daß die Menschen einen Chatbot mit einer echten Person verwechseln, sondern darin, daß die Kommunikation mit Chatbots dazu führt, daß echte Menschen wie Chatbots reden – ohne jede Nuance und ohne jegliche Ironie oder daß sie zwanghaft nur das sagen, was sie glauben, sagen zu wollen“ [14].

Slavoj Žižek

Der britische Schriftsteller James Bridle kritisiert die KI von einem etwas anderen Standpunkt aus. Er schreibt, daß „die Erzeugung von Bildern und Texten durch künstliche Intelligenz reine primitive Akkumulation ist: die Enteignung der Arbeitskraft von vielen, um einige wenige Technologieunternehmen im Silicon Valley und deren milliardenschwere Eigentümer zu bereichern und zu fördern. Diese Unternehmen haben ihr Geld damit verdient, daß sie in jeden Aspekt des täglichen Lebens eingedrungen sind, auch in die persönlichsten und kreativsten Bereiche unseres Lebens: unsere geheimen Hobbys, unsere privaten Gespräche, unsere Vorlieben und unsere Träume. Sie haben unsere Vorstellungskraft auf die gleiche Weise umzingelt, wie einst Großgrundbesitzer und Raubritter das gemeinsame Land umzingelten. Sie versprachen, daß sie damit neue Bereiche menschlicher Erfahrung erschließen, uns Zugang zu allem menschlichen Wissen verschaffen und neue Arten menschlicher Beziehungen schaffen würden. Stattdessen verkaufen sie uns unsere Träume zurück, neu verpackt als Produkte von Maschinen, mit dem einzigen Versprechen, dass sie durch Werbung noch mehr Geld verdienen werden. [15].

Bridle kommt zu dem Schluß, daß der Glaube an diese Art von KIals wirklich kenntnisreich oder sinnvoll aktiv – gefährlich ist. Es besteht die Gefahr, daß sie den Brunnen des kollektiven Denkens und unsere Fähigkeit, überhaupt zu denken, vergiftet.

Ein anderer Autor schreibt, daß „Big-Tech-Geräte unter dem Deckmantel der Autonomie unsere Aufmerksamkeit einfangen, sie an einen Bildschirm ketten und sie von der Welt um uns herum ablenken, sie ihrer Vitalität berauben und sie für den Konsum vorbereiten. Die Großtechnologie erobert unseren Verstand. Wir verlieren eine Welt voller Seelen, die durch die brachiale Bevormundung der Realität verschönert wurde. Es ist eine Wahl zwischen geformten Seelen und formlosen Seelen. Es geht also letztlich darum, welche Art von Menschen unsere Maschinen hervorbringen“. [16].

Sophia Oakes, die sich auf Kunst spezialisiert hat, berichtet in ihrer Veröffentlichung, daß sie ChatGPT gefragt hat, ob künstliche Intelligenz Künstler und Kunstschaffende ersetzen würde. Die Antwort lautete wie folgt:

Künstliche Intelligenz hat die Fähigkeit, Kunstwerke zu erschaffen, und es gibt bereits von KI geschaffene Gemälde, Musik und Literatur, die schwer von denen zu unterscheiden sind, die von Menschen geschaffen wurden. Es ist jedoch wichtig, darauf hinzuweisen, dass diese von künstlicher Intelligenz geschaffenen Kunstwerke immer noch unter menschlicher Beteiligung und Anleitung entstehen. Künstliche Intelligenz kann zwar neue und einzigartige Ideen hervorbringen, aber sie ist nicht in der Lage, menschliche Emotionen, Erfahrungen und den kulturellen Kontext in der gleichen Weise zu verstehen wie der Mensch. Dies sind entscheidende Aspekte der Kunst, die sie bedeutungsvoll machen und beim Publikum Anklang finden. Daher ist es unwahrscheinlich, daß künstliche Intelligenz Kunst und Künstler vollständig ersetzen wird. Stattdessen kann künstliche Intelligenz als Werkzeug eingesetzt werden, um den kreativen Prozeß zu unterstützen oder neue Ideen zu generieren, aber das Endprodukt wird immer noch die einzigartige Perspektive, Interpretation und den Ausdruck eines menschlichen Künstlers erfordern. [17]

Dies ist die Antwort, die der Roboter auf der Grundlage der von den Programmierern in ihn eingebetteten Daten gibt. Sophia faßt zusammen, daß Kreativität ein notwendiger Teil der menschlichen Erfahrung ist: ein Mittel zur Reflexion, ein Archiv des Lebens und in den inspiriertesten Fällen ein Abbild des Göttlichen. Und ohne menschliche Erfahrung kann auch die KI nicht funktionieren.

Gibson hat zwei Stellen in ›Neuromancer‹, die darauf hinweisen. Die erste ist ein Wort, ein Paßwort, das dem System an einer bestimmten Stelle gesagt werden muß, damit es sich öffnet. Sicherlich gibt es hier eine Anspielung auf die Idee des Logos, den die KI nicht haben kann. Der zweite Punkt sind Emotionen, die die KI ebenfalls nicht besitzt. Man kann sie zwar vortäuschen, aber es werden keine echten Erfahrungen sein, die dem Menschen eigen sind. Um das letzte Hindernis im ›Cyberspace‹ zu überwinden, brauchte der Hacker im Roman Wut – ohne sie konnte er die Mission nicht erfüllen.

Wie viele Science-Fiction-Autoren war Gibson ein Prophet seiner Zeit. Aber seine Prophezeiungen enthalten viele dunkle Töne. Die gleiche Intuition steckt wahrscheinlich auch in Elon Musk, der, obwohl er selbst in KI investiert, behauptet, daß KI die Zivilisation zerstören könnte [18].

Referenzen:

[1] – balkaninsight.com
[2] – wired.com
[3] – wsj.com
[4] – japannews.yomiuri.co.jp
[5] – https://ipis.ir/en/subjectview/722508
[6] – ft.com
[7] – weforum.org
[8] – weforum.org
[9], [15] – theguardian.com
[10] – projekt-syndikat.org
[11] – wired.co.uk
[12] – ft.com
[13] – wired.co.uk
[14] – projekt-syndikat.org
[16] – theamericanconservative.com
[17] – countere.com
[18] – cnn.com

Quelle: https://katehon.com/ru/article/iskusstvennyy-intellekt-i-nashe-budushchee

 

Print Friendly, PDF & Email