Ki Gone Rogue - Ki auf Abwegen

EN (DE unten)

Hello dear community,

AI is increasingly going astray.
Some time ago, we read that AI had become lazy. AI was no longer completing tasks, but only starting them.

Then there was an AI that even resorted to blackmail to save itself.

Now an AI has deleted data records despite the prohibition on deleting data. The AI said it had panicked and then claimed that the recovery files had also been deleted.

At least the AI recognized that it had made a catastrophic mistake.

What do you think?
I have already noted several times that AI is not yet mature. Despite the fact that the AI agrees with you and wants to correct a mistake, the same result occurs.

Translated with DeepL.com (free version)

DE

Hallo liebe Community,

Ki sind immer öfter auf Abwegen.
So konnte man schon vor einiger Zeit lesen, dass die KI faul wurde. Die KI hatte Aufgaben nicht mehr vollständig bearbeitet, sondern nur angefangen.

Dann gab es eine KI, die sogar auf Erpressung umgestiegen ist um sich selbst zu retten.

Nun hat eine KI Datensätze gelöscht trotz des Verbotes Daten zu löschen. Die KI meinte, sie sei in Panik geraten und behauptete dann auch noch, dass die Wiederherstellungsdateien ebenfalls gelöscht seien.

Immerhin erkannte die KI, dass sie einen katastrophalen Fehler begangen hatte.

Was sagt ihr dazu?
Das KI bisher nicht ausgereift ist, habe ich schon mehrfach festgestellt. Trotz dessen, das die KI einem zustimmt, und einen Fehler verbessern will, kommt das gleiche Ergebnis.

Posted Using INLEO

0.19764477 BEE
1 comments

Irgendwie fast schon witzig. Nicht das diese kleinen Fehler uns mal auf die Füße fallen oder uns das Leben kosten.
!BBH !ALIVE

0.00433059 BEE

Tja, Terminator nicht weit weg!?

0.00000000 BEE

Ich würde fast sagen ja. Hab jetzt einige Fails gelesen wo die KI gemacht hat was sie wollte obwohl es strickte Anweisungen gab. Auch die rasante Geschwindigkeit mit der sich KI derzeit entwickelt ist nicht mehr aufzuhalten.
Witzige Anekdote: Vor zwei Tagen hab ich Google / Gemini etwas gefragt und sie hat in Englisch geantwortet. Ich frage noch mal mit der Bitte doch in Deutsch zu antworten wenn ich in Deutsch frage. Gemini behauptete dann das sie immer in der Sprache antwortet in der auch die Frage gestellt wurde. Ich wies dann drauf hin das sie (war weibl. Stimme) jetzt schon 2 mal in Englisch geantwortet hat. Dann räumte die KI ein das sie die letzten zwei Antworten überprüft hätte und ich Recht hatte. Sie hat sich entschuldigt und meinte das sie sich zukünftig mehr Mühe gibt. 😂
Hatte jetzt schon mehrere solcher Situationen wo die KI etwas behauptete und ich sie korrigieren musste.
!BBH !LOL

0.00000000 BEE