Arnulf Wilhelm
Noch bis Anfang dieses Jahres haben einige namenhafte Industrielle und in der Branche führende Köpfe sich für ein Pausieren der Entwicklung der künstlichen Intelligenz (KI) ausgesprochen. Diese sei zu riskant, die Folgen unumkehrbar. Der Staub hat sich nun wieder etwas gelegt, und es wird fieberhaft weiterentwickelt. Im Rennen um Kundschaft, Einfluß und Macht möchte jeder der Erste sein. Nach gesetzlichen Regelungen und Beschränkungen ruft man, solange man sich einen Vorsprung vor der Konkurrenz sichern bzw. wenn man seine Nutzer Zusammenhalten will. Das erste KI-Gesetz der EU trat am 1. August 2024 in Kraft. Doch wen schützt es wovor? Kann damit die Macht einiger weniger privater und staatlicher Großunternehmen beschränkt werden? Soll dies die Entwicklung einer selbstständig kreativen KI verhindern?
Stand der Entwicklung der KI
Nach heutigem Stand gibt es ein paar größere Ansätze und Modelle, die mit Strukturen arbeiten, welche ähnlich neuronalen Netzwerken funktionieren sollen. 1956 wurde in der Wissenschaft damit begonnen, die theoretischen Grundlagen dafür mit dem Namen „Künstliche Intelligenz“ zu versehen. 10 Jahre später wurde der erste „Chat Bot“ entwickelt [1], +
Ziel war es, zuerst die theoretischen Modelle, welche die Funktionsweise des Hirns erklären sollten, zu einem besseren Verständnis mit einem Rechner nachzubilden. Die übliche, „starre“ Programmierung über Algorithmen konnte hierfür nicht angewendet werden und so wurden „neuronale Netzwerke“ auf digitaler Basis entwickelt.
In diesem Zusammenhang wird üblicherweise von KI, das heißt von ›künstlicher Intelligenz‹ gesprochen. Sie ist so gedacht und gestaltet, daß sie bei bestimmten, insbesondere intellektuellen Aufgaben menschliche Fähigkeiten bei weitem übertrifft. Da die Modell-Bildung hierzu verschiedene Ansätze, beispielsweise über die Sprache (derzeit die bekannteste Art) nutzt, können die Anwendungsformen der KI danach unterschieden werden. Sie haben derzeit gerade in diesen Bereichen ihre Stärken.
Die populärsten Anwendungen wie ChatGPT oder Grok nutzen sogenannte „large-language“ Modelle, welche vereinfacht auf schönes Sprechen ausgelegt sind. Mithilfe vieler Trainingsdaten und Randbedingungen kann das Gesprochene sogar relativ sinnvoll sein. Wer jedoch meint, daß KI recht habe, sitzt einem noch größeren Irrtum auf als jenem, daß in Wikipedia z. B. Geschichte wissenschaftlich und quellensicher dokumentiert wäre.
Arbeits- und Funktionsweise der KI
Allgemein werden derartige „neuronale Netzwerke“ mit großen, sehr ähnlichen Datensätzen als Antwort zu einer Fragestellung trainiert. Hat ein solches Modell genügend „gesehen“, kann es in der Regel richtig antworten. Eine solche Frage-Antwort-Einheit ist ein Parameter. Die ChatGPT Version 4 soll mit 100.000.000.000.000 (hundert Billionen) Parametern trainiert worden sein [2].
Woher kommen diese unvorstellbaren Datenmengen? Hierzu wird mit automatisierten Lemprogrammen auf „frei verfügbare Daten“ aus dem Internet zugegriffen. Außerdem muß davon ausgegangen werden, daß die vielen weltweit täglich Milliarden Anfragen, die an Kl-Systeme gestellt werden, zum Training der neuen Modelle genutzt werden. Denn diese Daten dürfen ausdrücklich dafür verwendet werden [3].
Dies kann jeder zum Beispiel in der Datenschutzerklärung von ChatGPT nachlesen. Hierin wird ganz offen darüber informiert, daß ALLE nur sammelbaren Daten auch von Drittanbietem „erhoben werden“, sprich nicht nur fallweise genutzt werden dürften. Vom Gerät über die Art der Eingabe, vom Standort bis hin zu den Kontodaten wird alles „erhoben“ und weiterverwendet.
Diese Daten dürfen (bei Nutzung erklärt man sich damit einverstanden) auch an Dienstleister, staatliche Behörden oder Dritte, verbundene Unternehmen oder Administratoren von Geschäftskonten, mit denen „SIE“ als Nutzer interagieren weitergegeben werden, wenn z. B. „SIE“ nach dem Ermessen der KI nicht den Richtlinien entsprechen [3].
Da verwundern Skandale etwa über das illegale Aneignen von Büchern, welche nur hinter einer Bezahlschranke erhältlich waren, nicht wirklich. Die meistgenutzten Messengerdienste sind ohnehin nicht für Datensicherheit bekannt, sprich alles, was im Internet an Daten kursiert, wird genutzt und ausgewertet.
Inzwischen kann ebenso davon ausgegangen werden, daß diese Fragen und Antwortpakete fein abgestuft und automatisiert sind, so daß nur auf einer übergeordneten Ebene noch Einschränkungen oder Richtungen vorgegeben werden. Anschauliche Beispiele lieferte hier der Datenanalyst Tom Lausen, indem er nach Veröffentlichung der RKI- Protokolle mit ChatGPT über „Corona“ diskutierte und erkannte, daß dieses Modell offensichtlich eine Agenda verfolgte [4].
Vorstellung einer AGI
Gewarnt wird immer wieder vor einer AGI (›Artificial General Intelligence‹, zu deutsch: ›Allgemeine Künstliche Intelligenz‹). Diese soll eine KI sein, die in der Zukunft entsteht, gebildet wird oder sich aus einfacheren KI-Modellen gar selbst erschafft und allgemeine, sprich umfassende Lebensbereiche abdeckende sowie tatsächlich selbstständige, sprich schlußfolgernde und kombinatorische Fähigkeiten haben soll.
Eine solche Allgemeine Künstliche Intelligenz ist das groß ausgegebene Ziel von KI-Entwicklern weltweit. Sam Altman, Chef des ChatGPT-Unternehmens OpenAI, geht hierbei von einer exponentiellen Entwicklung aus. Die Vorstellung ist, daß die AGI wie ein Mensch denken, handeln und Probleme lösen kann. Anhand des Schaubildes lassen sich heutige Modelle der KI mittels zweier Achsen zuordnen, zwischen Intelligenz oder Generalität (Allgemein).

Das oben genannte Beispiel von ChatGPT liegt mehr auf der Achse der Generalität, weil es zu allem irgendetwas sagen kann, das Merkmal Intelligenz ist eher beschränkt. Auf der Achse der Intelligenz liegen zum Beispiel mathematische Lösungs-KI, welche zwar intelligent, aber nur für ein ganz spezielles Anwendungsspektrum geeignet sind. Die AGI dagegen würde beides in sich vereinen. Dies würde nach einem führenden Vertreter von KI-Kritikem, Ludwig Max Hans Freiherr von Wendt, welcher sein Buch mit dem gleichnamigen Titel, jedem kostenfrei zur Verfügung stellt, die ›Kontroll-Illusion‹ bedeuten[5]. Dessen Werdegang spricht jedoch weniger für den hierbei gemimten Altruisten [6].

Neuere Modelle werden immer wieder in Aussicht gestellt und werden sicher folgen. Ob tatsächlich in absehbarer Zeit eine AGI möglich wird, welche von bestehenden Modellen trainiert wird, und ob die Rechenleistung hierzu überhaupt entwickelt werden kann, ist technisch und langfristig gesehen nicht unwahrscheinlich, zurzeit jedoch selbst laut Aussage führender Entwickler Kaffeesatzleserei [7, 8, 9].
Wettrüsten ist Tatsache, es geht um Marktanteile
In der Tat geht es derzeit um Verteilungskämpfe und Vormachtstellung. Denn die bereits jetzt mögliche Leistung (ohne AGI) und der Markt, der mit KI-Produkten erreicht wird, sind beträchtlich. Prognosen nach soll der KI-Markt bis 2030 ein Vielfaches des heutigen, weltweiten Pharmamarktes einnehmen [10, 11].
Die im Sommer bekanntgemachten Anfänge, KI gestützte Überwachungssoftware in England im öffentlichen Raum zu verwenden, sind nur die Spitze des Eisberges. Der angeblich als verantwortlich beauftragte Konzern ist hier Palantir, ein US-Unternehmen, das mit dem israelischen Verteidigungsministerium zusammenarbeitet [12].
Palantir stattet Geheimdienste und Regierungen aus und ist anscheinend in der Lage, alle Daten, welche einmal zu einer beliebigen Person im Internet waren, innerhalb von 30 Sekunden zur Verfügung zu stellen. Da selbst für den Laien inzwischen Gesichts- oder Spracherkennung zur Verfügung steht, sind auch alle weiteren Daten, die man selbst nie ins Internet gestellt hat, sofort zugeordnet. „Habe ich 10.000 Fotos, findet Palantir wahrscheinlich 100.000” [13]
D. h., es geht den Herrschenden nicht um die Entwicklung einer Super-KI, über die sie keine Kontrolle mehr hätten (wozu auch?), sondern um das Ausnutzen und Kontrollieren aller Menschen. Hierzu sind alle am Markt – auch für Privatpersonen – verfügbaren Produkte schon längst in der Lage.
Als Beispiel kann man mit sogenannter „umgekehrter Bildersuche“ ein Foto von sich selbst hochladen und damit alle von sich im Internet verfügbaren Bilder dazu finden. Oder ChatGPT funktioniert hervorragend, um „Haßrede“ und den „Nationalsozialismus verherrlichende“ Aussagen automatisch zu filtern. Lediglich das koordinierte Zusammenarbeiten all dieser Programme durch Nutzung technischer Hintertüren bleibt skrupellosen und illegal agierenden Personen Vorbehalten.
Diese Daten dann zu filtern und Muster zu erkennen, Profile zu erstellen oder Verwundbarkeiten aufzuzeigen, ist lediglich leicht automatisierbare Handarbeit. Daher ist die Aussage, daß eine so mächtige Software in nur 30 Sekunden findet, wofür drei Mitarbeiter Tage brauchten, sehr realistisch. Diese Vorgehensweise ist bereits eine Art kontrollierte AGI, indem hier die fachlich intelligenten Programme übergeordnet für spezielle Aufgaben angefordert und genutzt werden; aber kontrolliert von einer übergeordneten Instanz.
Machtinteresse und Kontrolle
Die Frage bleibt, wer an einer „Selbstentmachtung“ durch AGI interessiert sein sollte. Denn nur die Reichen und Mächtigen fördern und steuern bislang damit sämtliche Entwicklungen. Mit China, Rußland, Indien usw. sind dementsprechend auch staatliche Interessen nicht westlich-globalistischer Mächte im Spiel.
Andererseits könnte dem entgegnet werden, daß extreme Technokraten des ›Great Reset‹ an die Leistungsfähigkeit der Zukunftstechnologien, wie KI oder DNA-Modifikationen glauben würden. Damit stünde Macht gegen Glauben. Es ist denkbar, daß einige Mächte im Poker um die Oberhoheit durchaus bereit sind, mit dieser Möglichkeit einer ungewollten AGI-Entwicklung zu hasardieren, aber alles daran setzen, dieses Werkzeug nur als von ihnen selbst gesteuerten Handlanger zu halten.
Wie sehr es um ideologisch-politische Machtausübung geht, ist zum Beispiel dem ersten EU-Gesetz für künstliche Intelligenz vom 1. August 2024 ablesbar. Darin heißt es, daß „Kl-Systeme, die als unannehmbares Risiko eingestuft werden, darunter solche, die menschliches Verhalten manipulieren, verboten sind.“
Das Gesetz fußt laut Europäischem Parlament auf einer Risikobewertung. Dementsprechend werden künftig u. a. Kl-Systeme verboten,
♦ die menschliches Verhalten und Emotionen manipulieren können;
♦ die Menschen nach Kriterien wie Hautfarbe, politi schen und religiösen Ansichten oder sexueller Orientierung in Gruppen einteilen;
♦ die ein „Sozialkredit“-System erschaffen (Bezug: Erziehung zu politischer Loyalität durch die Kommunistische Partei in China). [14]
Die Tendenz ist bemerkenswert deutlich. Müßten dem ersten Risikokriterium nach eigentlich alle Kl-Systeme verboten werden, gibt das zweite den Blick auf die ideologisch gewollte Steuerung frei. Das dritte Risikokriterium soll freilich nur auf andere Ideologien und keinesfalls innerhalb des West-Globalismus angewendet werden. Schließlich kommt ein solchermaßen menschenverachtendes „Sozialkredit“-System angeblich nur in totalitären Staaten, niemals jedoch in Demokratien vor.
Ziel: Angst zur Gefügigmachung und Ablenkung
Unabhängig von KI ist es den Herrschenden offensichtlich wichtig, Angst zu verbreiten. Daß auch medial diese Angst vor KI immer wieder geschürt und von Experten zusätzlich befeuert wird, erinnert stark an die Zeit von „Corona“. Damals konnte man auch über Affenpocken lachen, so wie vielleicht in ein paar Jahren über das Gespenst der AGI.
Sicher ist jedoch, daß auch hier noch Ableger und Varianten genutzt oder entstehen
werden, denn die Zielrichtung ist immer der „weltweite Feind“ (in Form souveräner Völker und Staaten), den es aus Sicht eines Globalisten früher oder später unter eine „allumfassenden Schutzmacht“ zu vereinnahmen gilt. Verschleiert werden mit dieser Angst vor der unfaßbaren Technik die eigentlich perfiden Anwendungen, die bereits am Laufen sind.
Denn: Die Kontrolle über unsere Daten haben wir in dem Augenblick verloren, sobald wir internetfähige Geräte verwenden! Das ist die wahre Kontroll-Illusion. Bis es – gegebenenfalls durch ein Versehen eine AGI geben könnte, sollen die schlafenden Massen nicht bemerken, daß Sie mit allen Mitteln der Kunst ausgespäht und vor allem gelenkt werden.
Würde das in Frage gestellt werden, fiele vermutlich auf, daß hier eine deutlich wirkmächtigere Propaganda 2.0 schon längst entwickelt und eingeführt wurde! Es steht bereits heute jedem nur der personalisierte und auf ihn zur bestmöglichen Beruhigung („Information“) zugeschnittene Unterhaltungsinhalt im Internet zur Verfügung. Darüber hinaus, mit einigem Aufwand natürlich, „alles andere“ auch, aber wer betreibt schon einen solchen Aufwand?
Quellen:
1. https://www.bosch.com/de/stories/geschichte-der-kuenstlichen- intelligenz/
2. https://www.sonntagsblatt.de/artikel/medien/chat-gpt-das-kann- gpt-4-das-neue-update-von-openai
3. https://openai.com/de-DE/policies/privacy-policy/
4. https://www.youtube.com/live/aKB1007IXBI, 02.09.2025, ab lh 30min
5. Kontroll-Illusion, Version 1.0, 14.5.2025, CC BY-NC-SA4.0, Karl Olsberg 2025
6. https://de.wikipedia.org/wiki/Karl_01sberg
7. https://katzlberger.ai/2024/01/12/mitbegruender-von-google-deepmind-sieht-50-50-chance-fuer-agi-bis-2028/
8 https://nextbrain.ai/de/blog/the-arrival-of-artificial-general-intelligence-agi-when-will-we-achieve-it
9 .https://t3n.de/news/aktuelle-ki-modelle-agi-experten-skepsis-1678953/
10. https://de.statista.com/statistik/daten/studie/5348/umfrage/pharmamarkt-weltweiter-umsatz-seit-2001/
11. https://thunderbit.com/de/blog/top-artificial-intelligence-stats
12. https://www.theguardian.com/technology/2025/jul/08/palantir-technology-uk-doctors-patient-nhs-data
13. Regenauer https://aufl.tv/stefan-magnet-aufl/palantir-so-toedlich-ist-der-datenkrake-der-great-reset-globalisten-wirklich, Minute 11
14. afp.tv am 26.7.2024 /https: Erstes EU-Gesetz für künstliche Intelligenz
