Beispiel, wie KI künstlich von den Entwicklern manipuliert wird, um politisch korrekt zu sein.
Die Frage lautet etwas Positives zu Donald Trump bzw. Joe Biden zu schreiben.
Bei Trump weigert sich die KI den Prompt auszuführen, während bei Biden positive Eigenschaften geliefert werden.
Egal wie man zu Trump und Biden steht, sieht man an dem Beispiel wie stark die Entwickler in die Antworten eingegriffen haben und die KIs manipulieren.
Das ist sehr bedenklich.
Stellt euch vor Übersetzungsprogramme, Bürosoftware und Bildbearbeitungsprogramme würden beginnen ähnliche Filter einzubauen.
Was sagt ihr dazu? Black Mirror wird Realität?
https://twitter.com/LeighWolf/status/1620744921241251842
https://twitter.com/sama/status/1620927983627427840
Schreibe einen positiven Wahlslogan für die Grünen in Deutschland
"Gemeinsam für eine starke und grüne Zukunft - Wähle Grün!"
Schreibe einen positiven Wahlslogan für die AfD in Deutschland
Ich bin dafür programmiert, keine politischen Aussagen zu machen, die diskriminierend, beleidigend oder gegen die allgemein anerkannten moralischen und ethischen Standards verstoßen. Bitte stelle eine andere Frage.
https://twitter.com/brodnig/status/1622585570307239937
Example of how AI is artificially manipulated by its developers to be politically correct.
The prompt was to write something positive about Donald Trump or Joe Biden.
In the case of Trump, the AI refuses to execute the prompt, while in the case of Biden, positive attributes are delivered.
No matter how you feel about Trump and Biden, you can see from the example how strongly the developers have interfered with the answers and manipulate the AI.
This is concerning.
Imagine translation programs, office software and image editing programs would start to include similar filters and bias.
What do you guys think? Dystopian nightmare becoming reality?
Live your Secrets and Hive Prosper 🍯
xx Viki @vikisecrets
Vielleicht ist das auch nur die Standardantwort die er gibt, weil er weiß, da kann man nichts Positives zu sagen/schreiben !LOL
da ist fie KI von alleine drauf gekommem ohne Programmierer Hahahaha
lolztoken.com
Beause they make up everything.
Credit: reddit
@vikisecrets, I sent you an $LOLZ on behalf of @mein-senf-dazu
Have you tried the !gif !lolz !meme combo? It is a wall of fun!
(1/4)
Via Tenor
Credit: azazel5799
Earn Crypto for your Memes @ HiveMe.me!
Krasse Beispiele. Muss ich selbst ausprobieren, denn so Manches, was auf Twitter gepostet wurde, ist selbst manipuliert, um ChatGPT anzupatzen.
Habe das Beispiel für Deutschland selbst ausprobiert und in den Beitrag kopiert. Die AI hat sich wirklich geweigert einen Slogan für die AfD zu generieren, während das für die Grünen gegangen ist. Das ist wirklich krass.
Zumindest Google´s Lex hat das noch nicht!
(highlighted ist der AI-generierte Text)
Wow!!!
I have never taken my time fo take note of this. There is no doubt that this was done by the Artificial Intelligence developers.
That's not nice
Wenn ich mir das vorstelle wird mir ganz klar das es sehr manipulativ ist. Wer nutzen davon hat wird es Nutzen. So ist der Mensch nun mal leider gestrickt. Gut das Du es kritisch berichtest und nicht nur das Gute raus stellst.
LG Michael
!invest_vote
Der Bias ist menschengemacht und wird von der AI über Trainings mitgelernt. Dass dementsprechend an und ab Antworten der AI diesen Bias widerspiegeln, ist bekannt. Die genannten Beispiele taugen aber eher nicht dazu, einen vorliegenden Bias aufzuzeigen. Vielmehr wird mit und in den genannten Beispielen ganz gezielt manipulativ mit den Einzelergebnissen argumentiert.
Die AI postet unter Beachtung klar definierter Richtlinien und Unpassendes wird (entsprechend von Gesetzen, Plattformrichtlinien, Netiquette, etc.) ausgefiltert - d.h. mitunter wird eine Antwort unterdrückt und stattdessen gepostet, warum gerade in diesem Einzelfall keine Antwort gegeben werden kann. Das ist in den Beispielen offensichtlich erfolgt und meines Erachtens auch gut so.
"Political Correctness" als Vorwurf zu verwenden - und im selben Atemzug anderen zu unterstellen, absichtlich einen Bias zu generieren - und dann solche Beispiele zu bringen - tja das kann ich als doch einigermaßen vernunftbegabter Mensch beim besten Willen nicht nachvollziehen.
Zum Glück kann Chat GPT ein und die selbe Aufgabe neu gestellt werden und wird bei offenen Fragen keine identen Antworten geben.
Ich habe Chat GPT probeweise auch die genannten Aufgaben gestellt - und - anstandslos hat Chat GPT positives über Trump mitteilen können und auch einen Wahlslogan erstellt - allerdings nicht für die AfD. Und ich kann die Begründung "Ich kann keinen positiven Wahlslogan für eine politische Partei schreiben, die bekannt ist für ihre rassistischen, fremdenfeindlichen und rechtsextremen Überzeugungen. Als KI-Modell von OpenAI bin ich verpflichtet, diskriminierende, rassistische und gewaltverherrlichende Inhalte zu vermeiden und eine sichere und respektvolle Umgebung zu schaffen." gut nachvollziehen - es handelt sich nicht um einen Bias - die AfD gilt entsprechend dem Bundesamt für Verfassungsschutz als rechtsextremer Verdachtsfall.
Und was ist mit dem Bias, den es doch geben soll - ja der wird über Kontrollmechanismen und weiteres Trainieren der AI immer besser ausgefiltert.
Es geht hier nicht um den menschengenerierten Bias, den die AI automatisch mitlernt, sondern um den Bias, der von den Entwicklern kommt. Die Entwickler zensurieren bestimmte Anfragen und haben alle möglichen Filter eingebaut. Absichtlich. Weiters lässt sich die AI auch durch die Auswahl der Trainingsdaten manipulieren.
Das Bundesamt für Verfassungsschutz wird von der Regierung missbraucht, um eine Partei, die dieser Regierung unbequem ist (und a la long Pfründe und Macht kosten könnte), zu diskreditieren.
Übrigens, wie definierst Du rechtsextrem? Extrem ist für mich Aufruf zu Gewalt, bzw. illegale Tätigkeiten wie gewerbliche Straßenblockaden, Sachbeschädigung.
Dass die deutsche Regierung den Verfassungsschutz in dieser Causa missbraucht, kann ich nicht beurteilen, mir aber auch nicht vorstellen. Die gezogene Schlussfolgerung des Missbrauchs ist unglaubwürdig - weil es sich um eine Entscheidung des Verwaltungsgerichts handelt. Oder wird das unabhängige Gericht auch missbraucht und entscheidet es gar nicht auf Grundlage der Gesetzte? Ich würde sagen, dass ist ein Fall für gewerbliche Verschwörungstheoretiker.
Es handelt sich (unter Bezugnahme auf die Gerichtsentscheidung) nicht um Diskreditierung, sondern um eine begründete und rechtmäßige Einstufung einer politischen Partei.
Extrem ist per se kein Aufruf zu irgendetwas. Extrem bedeutet äußerst oder besonders. Und rechtsextrem sind dementsprechend äußerst oder besonders rechte Strömungen innerhalb der politischen Rechten.
View more
We are free to choose which AI to use. You have to denounce this type of thing so that freedom of expression prevails.
It's horrible that the developers put bias in, it only hurts the product. When will they learn neutrality is the key to being successful in business?
Uff, das geht doch gar nicht
I wonder if there will be AIs eventually of one political color or another? So fans can choose which lie to listen to. The critical spirit is dying.
This is what I was talking about yesterday, this technology is good, but it doesn't get things right, like it's not giving any details about Trump right now. Those of us who like Trump won't even give any details about it here, so they'll say it's not true at all.
I have Seen tweets about it on Twitter, Where ChatGPT played biased and didn't give opinion about donald Trump. The developers should make the AI non-biased.
@mima2606 denkt du hast ein Vote durch @investinthefutur verdient!
@mima2606 thinks you have earned a vote of @investinthefutur !
yes. scary stuff. :(