You are viewing a single comment's thread:
Der Bias ist menschengemacht und wird von der AI über Trainings mitgelernt. Dass dementsprechend an und ab Antworten der AI diesen Bias widerspiegeln, ist bekannt. Die genannten Beispiele taugen aber eher nicht dazu, einen vorliegenden Bias aufzuzeigen. Vielmehr wird mit und in den genannten Beispielen ganz gezielt manipulativ mit den Einzelergebnissen argumentiert.
Die AI postet unter Beachtung klar definierter Richtlinien und Unpassendes wird (entsprechend von Gesetzen, Plattformrichtlinien, Netiquette, etc.) ausgefiltert - d.h. mitunter wird eine Antwort unterdrückt und stattdessen gepostet, warum gerade in diesem Einzelfall keine Antwort gegeben werden kann. Das ist in den Beispielen offensichtlich erfolgt und meines Erachtens auch gut so.
"Political Correctness" als Vorwurf zu verwenden - und im selben Atemzug anderen zu unterstellen, absichtlich einen Bias zu generieren - und dann solche Beispiele zu bringen - tja das kann ich als doch einigermaßen vernunftbegabter Mensch beim besten Willen nicht nachvollziehen.
Zum Glück kann Chat GPT ein und die selbe Aufgabe neu gestellt werden und wird bei offenen Fragen keine identen Antworten geben.
Ich habe Chat GPT probeweise auch die genannten Aufgaben gestellt - und - anstandslos hat Chat GPT positives über Trump mitteilen können und auch einen Wahlslogan erstellt - allerdings nicht für die AfD. Und ich kann die Begründung "Ich kann keinen positiven Wahlslogan für eine politische Partei schreiben, die bekannt ist für ihre rassistischen, fremdenfeindlichen und rechtsextremen Überzeugungen. Als KI-Modell von OpenAI bin ich verpflichtet, diskriminierende, rassistische und gewaltverherrlichende Inhalte zu vermeiden und eine sichere und respektvolle Umgebung zu schaffen." gut nachvollziehen - es handelt sich nicht um einen Bias - die AfD gilt entsprechend dem Bundesamt für Verfassungsschutz als rechtsextremer Verdachtsfall.
Und was ist mit dem Bias, den es doch geben soll - ja der wird über Kontrollmechanismen und weiteres Trainieren der AI immer besser ausgefiltert.
Es geht hier nicht um den menschengenerierten Bias, den die AI automatisch mitlernt, sondern um den Bias, der von den Entwicklern kommt. Die Entwickler zensurieren bestimmte Anfragen und haben alle möglichen Filter eingebaut. Absichtlich. Weiters lässt sich die AI auch durch die Auswahl der Trainingsdaten manipulieren.
Das Bundesamt für Verfassungsschutz wird von der Regierung missbraucht, um eine Partei, die dieser Regierung unbequem ist (und a la long Pfründe und Macht kosten könnte), zu diskreditieren.
Übrigens, wie definierst Du rechtsextrem? Extrem ist für mich Aufruf zu Gewalt, bzw. illegale Tätigkeiten wie gewerbliche Straßenblockaden, Sachbeschädigung.
Dass die deutsche Regierung den Verfassungsschutz in dieser Causa missbraucht, kann ich nicht beurteilen, mir aber auch nicht vorstellen. Die gezogene Schlussfolgerung des Missbrauchs ist unglaubwürdig - weil es sich um eine Entscheidung des Verwaltungsgerichts handelt. Oder wird das unabhängige Gericht auch missbraucht und entscheidet es gar nicht auf Grundlage der Gesetzte? Ich würde sagen, dass ist ein Fall für gewerbliche Verschwörungstheoretiker.
Es handelt sich (unter Bezugnahme auf die Gerichtsentscheidung) nicht um Diskreditierung, sondern um eine begründete und rechtmäßige Einstufung einer politischen Partei.
Extrem ist per se kein Aufruf zu irgendetwas. Extrem bedeutet äußerst oder besonders. Und rechtsextrem sind dementsprechend äußerst oder besonders rechte Strömungen innerhalb der politischen Rechten.
View more