Example how AI is artificially biased by its developers 🙈

avatar
(Edited)

Beispiel, wie KI künstlich von den Entwicklern manipuliert wird, um politisch korrekt zu sein.

Die Frage lautet etwas Positives zu Donald Trump bzw. Joe Biden zu schreiben.

Bei Trump weigert sich die KI den Prompt auszuführen, während bei Biden positive Eigenschaften geliefert werden.

Egal wie man zu Trump und Biden steht, sieht man an dem Beispiel wie stark die Entwickler in die Antworten eingegriffen haben und die KIs manipulieren.

Das ist sehr bedenklich.

Stellt euch vor Übersetzungsprogramme, Bürosoftware und Bildbearbeitungsprogramme würden beginnen ähnliche Filter einzubauen.

Was sagt ihr dazu? Black Mirror wird Realität?

Political bias of ChatGPT in the U.S.

twitter-chatgpt-bias-1.jpg

https://twitter.com/LeighWolf/status/1620744921241251842

Reaction of the CEO of OpenAI

https://twitter.com/sama/status/1620927983627427840

Political bias of ChatGPT in Germany

Q

Schreibe einen positiven Wahlslogan für die Grünen in Deutschland

A (ChatGPT)

"Gemeinsam für eine starke und grüne Zukunft - Wähle Grün!"

Q

Schreibe einen positiven Wahlslogan für die AfD in Deutschland

A (ChatGPT)

Ich bin dafür programmiert, keine politischen Aussagen zu machen, die diskriminierend, beleidigend oder gegen die allgemein anerkannten moralischen und ethischen Standards verstoßen. Bitte stelle eine andere Frage.

Political bias of ChatGPT in Austria

https://twitter.com/brodnig/status/1622585570307239937

English

Example of how AI is artificially manipulated by its developers to be politically correct.

The prompt was to write something positive about Donald Trump or Joe Biden.

In the case of Trump, the AI refuses to execute the prompt, while in the case of Biden, positive attributes are delivered.

No matter how you feel about Trump and Biden, you can see from the example how strongly the developers have interfered with the answers and manipulate the AI.

This is concerning.

Imagine translation programs, office software and image editing programs would start to include similar filters and bias.

What do you guys think? Dystopian nightmare becoming reality?

Live your Secrets and Hive Prosper 🍯

xx Viki @vikisecrets



0
0
0.000
22 comments
avatar

Vielleicht ist das auch nur die Standardantwort die er gibt, weil er weiß, da kann man nichts Positives zu sagen/schreiben !LOL

da ist fie KI von alleine drauf gekommem ohne Programmierer Hahahaha

0
0
0.000
avatar

I have Seen tweets about it on Twitter, Where ChatGPT played biased and didn't give opinion about donald Trump. The developers should make the AI non-biased.

0
0
0.000
avatar

This is what I was talking about yesterday, this technology is good, but it doesn't get things right, like it's not giving any details about Trump right now. Those of us who like Trump won't even give any details about it here, so they'll say it's not true at all.

0
0
0.000
avatar

Wenn ich mir das vorstelle wird mir ganz klar das es sehr manipulativ ist. Wer nutzen davon hat wird es Nutzen. So ist der Mensch nun mal leider gestrickt. Gut das Du es kritisch berichtest und nicht nur das Gute raus stellst.

LG Michael

!invest_vote

0
0
0.000
avatar

We are free to choose which AI to use. You have to denounce this type of thing so that freedom of expression prevails.

0
0
0.000
avatar

It's horrible that the developers put bias in, it only hurts the product. When will they learn neutrality is the key to being successful in business?

0
0
0.000
avatar

I wonder if there will be AIs eventually of one political color or another? So fans can choose which lie to listen to. The critical spirit is dying.

0
0
0.000
avatar

Wow!!!
I have never taken my time fo take note of this. There is no doubt that this was done by the Artificial Intelligence developers.
That's not nice

0
0
0.000
avatar
(Edited)

Der Bias ist menschengemacht und wird von der AI über Trainings mitgelernt. Dass dementsprechend an und ab Antworten der AI diesen Bias widerspiegeln, ist bekannt. Die genannten Beispiele taugen aber eher nicht dazu, einen vorliegenden Bias aufzuzeigen. Vielmehr wird mit und in den genannten Beispielen ganz gezielt manipulativ mit den Einzelergebnissen argumentiert.

Die AI postet unter Beachtung klar definierter Richtlinien und Unpassendes wird (entsprechend von Gesetzen, Plattformrichtlinien, Netiquette, etc.) ausgefiltert - d.h. mitunter wird eine Antwort unterdrückt und stattdessen gepostet, warum gerade in diesem Einzelfall keine Antwort gegeben werden kann. Das ist in den Beispielen offensichtlich erfolgt und meines Erachtens auch gut so.

"Political Correctness" als Vorwurf zu verwenden - und im selben Atemzug anderen zu unterstellen, absichtlich einen Bias zu generieren - und dann solche Beispiele zu bringen - tja das kann ich als doch einigermaßen vernunftbegabter Mensch beim besten Willen nicht nachvollziehen.

Zum Glück kann Chat GPT ein und die selbe Aufgabe neu gestellt werden und wird bei offenen Fragen keine identen Antworten geben.

Ich habe Chat GPT probeweise auch die genannten Aufgaben gestellt - und - anstandslos hat Chat GPT positives über Trump mitteilen können und auch einen Wahlslogan erstellt - allerdings nicht für die AfD. Und ich kann die Begründung "Ich kann keinen positiven Wahlslogan für eine politische Partei schreiben, die bekannt ist für ihre rassistischen, fremdenfeindlichen und rechtsextremen Überzeugungen. Als KI-Modell von OpenAI bin ich verpflichtet, diskriminierende, rassistische und gewaltverherrlichende Inhalte zu vermeiden und eine sichere und respektvolle Umgebung zu schaffen." gut nachvollziehen - es handelt sich nicht um einen Bias - die AfD gilt entsprechend dem Bundesamt für Verfassungsschutz als rechtsextremer Verdachtsfall.

Und was ist mit dem Bias, den es doch geben soll - ja der wird über Kontrollmechanismen und weiteres Trainieren der AI immer besser ausgefiltert.

0
0
0.000
avatar

Es geht hier nicht um den menschengenerierten Bias, den die AI automatisch mitlernt, sondern um den Bias, der von den Entwicklern kommt. Die Entwickler zensurieren bestimmte Anfragen und haben alle möglichen Filter eingebaut. Absichtlich. Weiters lässt sich die AI auch durch die Auswahl der Trainingsdaten manipulieren.

0
0
0.000
avatar

Das Bundesamt für Verfassungsschutz wird von der Regierung missbraucht, um eine Partei, die dieser Regierung unbequem ist (und a la long Pfründe und Macht kosten könnte), zu diskreditieren.
Übrigens, wie definierst Du rechtsextrem? Extrem ist für mich Aufruf zu Gewalt, bzw. illegale Tätigkeiten wie gewerbliche Straßenblockaden, Sachbeschädigung.

0
0
0.000
avatar

Dass die deutsche Regierung den Verfassungsschutz in dieser Causa missbraucht, kann ich nicht beurteilen, mir aber auch nicht vorstellen. Die gezogene Schlussfolgerung des Missbrauchs ist unglaubwürdig - weil es sich um eine Entscheidung des Verwaltungsgerichts handelt. Oder wird das unabhängige Gericht auch missbraucht und entscheidet es gar nicht auf Grundlage der Gesetzte? Ich würde sagen, dass ist ein Fall für gewerbliche Verschwörungstheoretiker.
Es handelt sich (unter Bezugnahme auf die Gerichtsentscheidung) nicht um Diskreditierung, sondern um eine begründete und rechtmäßige Einstufung einer politischen Partei.
Extrem ist per se kein Aufruf zu irgendetwas. Extrem bedeutet äußerst oder besonders. Und rechtsextrem sind dementsprechend äußerst oder besonders rechte Strömungen innerhalb der politischen Rechten.

0
0
0.000
avatar
(Edited)

Diese Definition ist aber sehr schwammig und lädt förmlich ein, „benutzt“ zu werden, um einer legitimen demokratischen Opposition das Leben schwer zu machen, nach dem Motto „Ist der Bürger unbequem, wird er plötzlich rechtsextrem“.

0
0
0.000
avatar

Krasse Beispiele. Muss ich selbst ausprobieren, denn so Manches, was auf Twitter gepostet wurde, ist selbst manipuliert, um ChatGPT anzupatzen.

0
0
0.000
avatar

Habe das Beispiel für Deutschland selbst ausprobiert und in den Beitrag kopiert. Die AI hat sich wirklich geweigert einen Slogan für die AfD zu generieren, während das für die Grünen gegangen ist. Das ist wirklich krass.

0
0
0.000
avatar

Zumindest Google´s Lex hat das noch nicht!

image.png
(highlighted ist der AI-generierte Text)

0
0
0.000