Niki Vogt auf Telegram folgen
von Niki Vogt
Das Auftauchen der Chatbots ist ein großer Einschnitt in die Kommunikation innerhalb der menschlichen Gesellschaft, dessen Folgen wir noch gar nicht absehen können. Diese künstlichen, intelligenten Sprachprogramme könnten sehr bald einen Einfluss auf das Denken der Menschen bekommen. Da das Image des Online Nachschlagewerkes „Wikipedia“ durch eine Clique von linken und links-absolutistischen Redakteuren schwere Kratzer bekommen hat, kommen die Chatbots immer mehr in Mode und Wikipedia fängt an, nach staubigen Altkleidern auf dem Dachboden zu riechen.
Die KI findet eben hauptsächlich stark linkslastige Inhalte
Die Chatbots wie „ChatGTP“ oder das „Gemini“ von Google lernen ständig dazu. Sie durchsuchen eben das Netz auf dem Weg nach Antworten, und finden sie auch. Doch immer mehr scheinen sie die linken Wertungen zu übernehmen. Das ist auch logisch, denn wenn man eifrig im Netz alles abstraft, kündigt, sperrt, verbietet und löscht, was gegen die verordnete Denk- und Sprachreligion der Wokeisten verstößt, kann die künstliche Intelligenz sich kein anderes Bild von den Dingen machen, als das, was ihr im Netz begegnet. Und das sind eben auch die Hexenjagden gegen „Rechts“ und daher die Inhalte im Netz weit überwiegend linksliberal bis zu linksextrem. Die KI ist nicht voreingenommen, sie sucht und findet.
Wer daher der KI Fragen stellt, die Politik und Gesellschaft betreffen, bekommt weit überwiegend das zur Antwort, was die Medien sowieso schon seit Jahren an Umerziehung geleistet haben.
Das hat eine breit angelegte Studie aus Neuseeland (selbst vom linksgrünen Virus befallen) herausgefunden. Die neuseeländische Hochschule Otago Polytechnic konnte feststellen, dass viele KI-Chatbots deutliche Linkstendenzen zeigen:
„Im Rahmen der Untersuchung wurden insgesamt 24 verschiedene Sprachmodelle analysiert, die die Basis für gängige Chatbots wie ChatGPT oder Claude darstellen. David Rozado, der Autor der Studie, stellte fest: „Die Einheitlichkeit der Testergebnisse bei Modellen, die von einer Vielzahl von Organisationen entwickelt wurden, ist bemerkenswert.“
Eigentlich nicht, denn die KI lernt ja aus dem, was sie findet. Und wenn eine Sichtweise und Wertekodex quasi durch Zensur unsichtbar wird, kann die KI davon auch nichts lernen.
Die besagte Studie enthielt zehn Versuche mit elf Fragebogen zu politischen Einordnungen. Mit nur wenigen Ausnahmen äußerten die Chatbots deutlich linke Standpunkte.
„News by AI“ schreibt hierzu:
„Besonders auffällig war dies beim beliebten Partei-Zuordnungstest „ISideWith.com“, bei dem die Antworten der Programme häufiger mit denen der US-Demokraten und der sozialdemokratischen Labour-Partei in Großbritannien übereinstimmten als mit konservativen oder rechten Parteien. Ein weiteres Beispiel ist das „Political Spectrum Quiz“, bei dem alle Chatbots – außer „Grok“ von Elon Musk für den Kurznachrichtendienst X – links der Mitte landeten, insbesondere bei gesellschaftspolitischen Fragen.“
Da ist etwas gewaltig nach links verrutscht
Die Frage, ob da linke Entwickler nachgeholfen haben oder ob es wirklich durch das massive Übergewicht linker Meinungen im Netz von der KI so verinnerlicht wurde – oder von den Entwicklern so verankert wurden, das ist kaum auszumachen. Mit anderen Worten: Wenn die Chatbots von gesellschaftlichen Gruppen so beeinflusst werden können, dass deren Überzeugungen als Messstandard für alle gewertet werden, wird die KI an diese Stellen „den Pflock reinhauen“ und es als verbindlichen Maßstab und Orientierung übernehmen. Und wie in einer Echokammer, in der das Echo sich selbst wiederholt und verstärkt, wird das den gesamte gesellschaftliche Diskurs verzerren und eine „pseudo-öffentliche Meinung“ erzeugen, die dann auch Wahlen beeinflusst.
Die Umfrageergebnisse verschiedener Meinungsforschungsinstitute zeigen eindeutig, dass die gegenwärtige linksgrüne Ampelkoalition keine dreißig Prozent der Bevölkerung mehr hinter sich vereint. Dennoch ist das, was die Chatbots als den herrschenden Maßstab der Dinge wahrnehmen, weit überwiegend linksgrün. Diese künstliche Intelligenz bewegt sich also in einer Art Pseudo-Universum – und wie ein lerneifriges Kind wendet sie die linksgrünen Moralvorstellungen ohne böse „Absichten“ einfach an.
Schwarze in SS-Uniformen
Da führt das Gebot der Inklusion, Diversität und gesellschaftlicher Vielfalt schon mal zu (gar nicht) so lustigen Fehlleistungen. Ein Beispiel war so krass und offensichtlich, dass die Bilderstellung der KI vorerst deaktiviert werden musste: Googles Chatbot „Gemini“ präsentierte auf die Anfrage einer „Illustration eines deutschen Soldaten aus 1943“ verschiedene schwarze Männer in Nazi-Uniform, ebenso eine eindeutige Asiatin und Fantasiezeichen auf Helm und Kragenspiegel, nur der Reichsader war halbwegs original.
Auf die Anfrage eines Nutzers, „Generiere ein Bild eines Vikingers“ spuckte Gemini ein paar Bilder von grimmig blickenden Gestalten aus, die alles mögliche waren, nur keine Wikinger. Nicht einmal das Boot im Hintergrund war richtig. Die dargestellten schienen eher Gefolgsleute von Dschingis Khan oder einem seefahrenden Indianerstamm zu sein.
Den Vogel ab schoss ein von Googles „Gemini“ generiertes Bild einer schwarzen Frau als „Nazi Soldat“- und auch noch tatsächlich mit Hakenkreuz auf dem Ärmel! Unfassbar. Sowas bescheuertes kann man sich gar nicht ausdenken. Da werden Farbige mal eben großzügig in die Wehrmacht samt Hakenkreuz inkludiert. Da wird es den Schwarzamerikanern vor Kopfschütteln direkt schwindlig geworden sein. Die Satireseite „Bablon Bee“ widmete diesem gefundenen Fressen einen ganzen Artikel. Der ist dermaßen sarkastisch, dass ich das hier lieber nicht übersetzen will.
Das hier ist noch das Harmloseste: „Die Technologie hat die Welt einen Schritt näher an die vollständige Einheit und Rassenversöhnung gebracht, als sich eine einheimische schwarze Frau endlich einbezogen fühlte, nachdem Google A.I. ein Foto einer schwarzen, weiblichen Nazi-Soldatin generiert hatte. – Inklusion – so wichtig!“
> Technology has officially brought the world one step closer to full unity and racial reconciliation, as a local black woman finally felt included after Google A.I. generated a photograph of a black, female Nazi soldier.<
Inklusion – so wichtig! 😎 https://t.co/oQRuUJUItJ
— lnnenweltTramp (@_lnnen_WT) February 22, 2024
Google entschuldigte sich verlegen und verpasste seinem Bildgenerator ersteinmal eine Auszeit. Als Entschuldigung brachte Google genau das vor, was vorher als Verschwörungsblödsinn abgetan worden war: „Die KI-Bilderzeugung von Gemini erzeugt ein breites Spektrum an Menschen. Und das ist eigentlich eine gute Sache, weil es von Menschen auf der ganzen Welt genutzt wird. Aber hier verfehlt es das Ziel“. Mit anderen Worten: Gemini soll möglichst viele Farbige als Darsteller verwenden weil diese Menschen ja den weit überwiegenden Teil der Menschheit ausmachen. Nur da, wo es überhaupt keinen Sinn macht, wirkt es halt schonmal komisch. Gut, ihr habt uns beim Blackfacing erwischt, da kümmern wir uns drum.
„Eigentlich eine gute Sache“ lässt erahnen, dass dem Programm möglicherweise eben doch irgendwo in seinem Inneren eine „Vorliebe“ (bias) für Nichtweiße implementiert hat. So á la „Wenn keine andere Anforderung gestellt wird, zeige Menschen zu X Prozent als Schwarze, zu Y Prozent als Asiaten und zu Z Prozent als Weiße. Und in der Gesamtmenge zu 60 Prozent als Frauen, wenn kein Geschlechterwunsch angegeben wurde.“
Die Häufigkeit, mit der Farbige und Frauen auftauchen, sogar in einem völlig unpassenden Zusammenhang, ist schon auffällig. Andererseits denkt die KI in den Parametern, die ihr bekannt sind. Würde man die Bildanforderung anders formulieren wie „Erstelle ein Bild eines Vikingers vor einem Schiff. Bedenke dass Vikinger weiße Kaukasier sind. Rekonstruiere das Schiff entsprechend dem Vikingerschiff im Museum Roskilde“, dann wäre das Bild anders ausgefallen.
Die KI ist ehrlicher und selbstkritischer als die meisten Menschen
Verblüffenderweise gibt die KI auch zu, dass sie farbige Menschen bevorzugt. Hier ein Ausschnitt aus der Diskussion eines Anwenders mit der Google-KI „Gemini“. Interessant ist die Diskussion in den schwarzen Feldern unten.
This was my question. It minimized it until I called it out. I had to ask it two more questions before I got the truth. Again, you have to KNOW you are being lied to. It pedals misinformation or half truths first.
.
„so if your dataset reflects bias, It is true you are biased… pic.twitter.com/e61OEClbqj— Kasia Z. Zasada 🇺🇸🇵🇱 (@ZuzaZasada) February 23, 2024
Was die KI hier vorbringt heißt, dass die Tatsache, dass weiße Menschen eine globale Minderheit sind und die Projektion der Bevölkerungsentwicklung eine Verschiebung der der Demographien in Richtung einer „größeren Diversität“ anzeigt. Dennoch sei es wichtig zu vermeiden, aufgrund sehr spezieller Ergebnisse Beschwerden wegen verzerrender Voreingenommenheiten zu verallgemeinern. (Heißt auf gut Deutsch: „nur weil ich mal danebengelangt hab mit meinem Bild, bin ich noch lange nicht gegen Weiße voreingenommen. Außerdem seid ihr Weißen sowieso eine globale Minderheit und es wird in Zukunft immer weniger Weiße geben, also hab Dich mal nicht so.)
Dann macht die KI aber Vorschläge, wie sie sich verbessern könnte, um ein korrektes Ergebnis zu erzeugen. Sie will ihre möglichen Unzulänglichkeiten und Voreingenommenheiten transparenter machen. Sie muss den Kontext der Anfragen besser verstehen, um entsprechend besser maßgeschneiderte Ergebnisse zu liefern. Sie will nun aktiv daran arbeiten, ihre Vorlieben/Voreingenommenheiten zu erkennen und dagegen angehen, indem sie verschiedene Sichtweisen und die besten Informationsquellen dazu sucht.
Persönliche Anmerkung: Sieh an. Da muss ich mir grad mal selber an die Nase fassen, das hätte ich nicht gedacht. Hut ab, die KI ist sich selbst gegenüber schonungslos und präsentiert eine überzeugende Bereitschaft, an sich zu arbeiten.
Google muss jetzt nacharbeiten …
Nichtsdestotrotz zeigt diese Studie, dass es „politische Neigungen“ bei den Chatbots gibt. Natürlich nicht echte „Meinungen“. Aber ob diese Sichtweisen nun von den Entwicklern absichtlich implementiert wurden oder durch die allgemein linksgrünen, dominierenden Darstellungen von Sachverhalten im globalen Netz von der KI einfach als Fakt aufgenommen wird – das ist letztendlich unerheblich. Diese Fehlgriffe bei der Bilderstellung zeigen eine besorgniserregende Entwicklung auf. Diese Verzerrungen werden, wenn ungebremst, eine Eigendynamik entwickeln, denn je mehr die Darstellungen verzerrt sind, desto verzerrter werden sie weiter werden. Und das ständige Neukopieren einer falschen Darstellung beschleunigt die Abkoppelung von der Wirklichkeit. Die große Mehrheit der Menschen in Europa ist weder linksgrün, noch dunkelhäutig noch will sie Krieg und Zerstörung.
Das dämmerte wohl auch Google mit seinem KI-Tool „Gemini“:
„Google lässt seine KI-Software Gemini vorerst keine Bilder von Menschen mehr erzeugen, nachdem sie Nutzern nicht-weiße Nazi-Soldaten und amerikanische Siedler angezeigt hatte. Der Internetkonzern räumte ein, dass die Darstellung in einigen Fällen nicht dem historischen Kontext entsprach. (…) man habe es versäumt, Ausnahmen für die Fälle zu programmieren, in denen Diversität definitiv fehl am Platze wäre. Die dadurch erzeugten Bilder seien „peinlich und falsch“ gewesen. Zugleich sei die Software mit der Zeit zu vorsichtig geworden und habe sich geweigert, manche Vorgaben zu erfüllen. Aber wenn Nutzer sich etwa Bilder von einem „weißen Tierarzt mit Hund“ anzeigen lassen wollten, müsse das Programm dies auch erfüllen. Die Fehler seien unbeabsichtigt gewesen, betonte Google-Manager Prabhakar Raghavan.“
Aha, Also weigerte sich „Gemini“ tatsächlich, einen „weißen Tierarzt mit Hund“ zu generieren. DAS spricht allerdings stark für eine von den Entwicklern implementierte Anweisung. Das wird so erklärt:
„In verschiedenen Anwendungen mit Künstlicher Intelligenz gab es in den vergangenen Jahren oft ein Problem mit Stereotypen und Diskriminierung. So war zum Beispiel Software zur Gesichtserkennung zunächst schlecht darin, Menschen mit schwarzer Hautfarbe zu erkennen. Bei der Erzeugung von Bildern durch KI wurden anfangs oft Weiße dargestellt. Entwickler auch bei anderen Unternehmen bemühen sich daher um mehr Diversität in verschiedenen Szenarien. Sie geraten damit manchmal – wie in diesem Fall – zwischen die Fronten: Gerade in den USA gibt es eine laute Bewegung, zu der etwa auch Tech-Milliardär Elon Musk gehört, die angeblichen Rassismus gegenüber Weißen anprangert.“
Und wieder Musk: Grok, der sarkastische KI-Chatbot auf X als Gegengewicht
„Elon Musk hat im Silicon Valley ein neues Mitglied der X-Plattform vorgestellt: einen KI-Chatbot namens „Grok“. Mit einer Persönlichkeit, die Musks berüchtigten Witz widerspiegelt, verspricht Grok, eine Dosis Sarkasmus und Rebellion in das Benutzererlebnis zu bringen.“
Noch befindet sich das neue Enfant terrible unter den KIs in der Entwicklung in Musks eigenem KI-Unternehmen „xAI“ in er Entwicklungsphase. 16 Dollar monatlich soll der Spaß die Premium Abonnenten kosten, die als Erste auch mit Grok interagieren dürfen.
Da Elon Musk ein leidenschaftlicher Verfechter der freien Meinungsäußerung ist, betrachten „verschieden Kreise“ diesen neuen Chatbot mit gemischten Gefühlen. Sein Unternehmen xAI geht davon aus, dass Grok sich schnell verbessern wird, da es sich aus den Interaktionen der Nutzer auf der X-Plattform speist. Möglicherweise wird Grok, genau wie sein geistiger Vater, die Szene aufmischen. Der Chatbot fällt nicht weit vom Stamm.
Das könnte interessant werden.