Grok can now undress "selfies" 😂

(edited)

Neuer Trend auf X, Grok kann jetzt Personen auf Fotos ausziehen 😂

Um hier keine Schwierigkeiten mit dem Datenschutz und US-Gesetzen zu bekommen, geben die User an, dass es sich um ein Selfie handelt.

Und noch eine Einschränkung gibt es, die KI erzeugt "nur" Bikini-Fotos, keinen Porn, um auf der sicheren Seite zu sein. Trotzdem ist es ein Graubereich und vielleicht eine Horrorvorstellung für manche Teens und Instagram-Girls, die ständig Selfies von sich posten.

Was sagt ihr zu dem Trend? Horrorvorstellung für Girls oder witziges Feature?

image.png

https://x.com/grok/status/2005910493618122797

English

New trend on X, Grok can now undress people in photos 😂

To avoid any issues with data protection and US laws, users specify that the photo is a selfie.

There is another restriction: the AI “only” generates bikini photos, not porn, to be on the safe side. Nevertheless, it's a gray area and perhaps a horror scenario for some teens and Instagram users who constantly post selfies of themselves.

What do you think of this trend? Horror scenario for girls or funny feature?

1.54519907 BEE
13 comments

Warum nicht? Es könnte die Narzissten unter den Heranwachsenden (vulgo die Selfie-Maniacs) dazu erziehen, sich weniger auf die Oberflächlichkeiten zu fokussieren, da Bilder im Zeitalter der AI etwas anderes sind als früher.

Aber nur weil jemand nackt wäre, ist es noch lange kein Porno. Dass Nacktheit heute offenbar ein No-Go ist und sogar schon mit Porno gleichgesetzt wird, liegt eher an den Content-Richtlinien von Google und Meta. In früheren Jahrhunderten war es vollkommen normal, nackte Frauen (und Männer) darzustellen, allerdings nur, wenn diese ästhetisch waren.

0.00875734 BEE

Cool, dass das mit Grok geht, die anderen KIs würden solche Anfragen sofort zensurieren. Grok verlagert die Verantwortung mehr zu den Usern, was ich gut finde.

0.00177416 BEE

Ja, das sehe ich auch so.

0.00879945 BEE

also wo du überall herumstöberst, lol - oder kommt das so automatisch auf deinen Feed?

0E-8 BEE

Wieder Futter für die sich in der Erregungskultur suhlenden!

1.6E-7 BEE

Thinking more of a funny feature. Can see the other side depending on use and how anyone perceives it. Thank you for sharing.

0.00462787 BEE

I heard about it when people were undressing a ton of people, but I think it's a horror for the people targeted.

0.00428952 BEE

Elon's new favorite feature? ;)

0.00436044 BEE

I think this feature will be abused by some people

!BBH

0.00440611 BEE

Für uns Männer lässig ...

0.00435831 BEE

So weit sind wir also gekommen.. 😂

0.00438288 BEE

🫣 Verrückt. Aber war klar, oder?

0.00432629 BEE

Mit Stable Diffusion ging das früher auch schon, aber interessant, dass es Grok zulässt, bei Google und Microsoft wird alles zensuriert. Grok verlagert die Verantwortung stärker auf die User.

0.00000772 BEE

In the Czech Republic, about three years ago, it was literally an epidemic in elementary schools. However, at that time, the program allowed for complete undressing. Schools reported cases they learned about to the police. If persons over the age of 15 committed this act, it led to a court decision in a criminal case, usually resulting in fines of thousands of euros. There were also several civil disputes. Now, thank God, it has been quiet for about two years.

0.00434957 BEE

Also ich finde es nicht so gut da "kinder/teenies" echt grausam sein können und das sicher auch in die andere seit führen kann.... (Mobbing usw...)

0.00437151 BEE

Du hast prinzipiell recht, aber sobald allgemein die Einsicht herrscht, dass man Bildern einfach nicht mehr trauen kann, ist das einerlei. Das kommt dann hoffentlich so rüber, wie wenn heutzutage Politikerplakate mit Bärten oder stilisierten Penissen "verziert" werden.

0.00000187 BEE

Honestly, it sounds funny at first, but when you think about privacy and consent, it does raise some serious concerns.Features like this make you rethink how freely we share selfies online.

0E-8 BEE

This trend could introduce insecurities to some people by posting this type of photos from AI

0E-8 BEE

It doesn't look 'natural' without goosebumps, lol.
But on a pro subscription to Leonardo, you could go further than that. Not my thing really.

I am on Nightcafe, and on there, I am complaining about the 'Taliban' type censorship. The problem is that AI cannot differentiate between art and porn. So while they have lots of 'cheesecake' images created by juvenile minds (you find many topless ones too), if you create art in a baroque style, your results get blocked. I experience this also when Klimt and Schiele are in the prompt. Here is a rather rare image created with Klimt in the prompt:
What can I say - the new Fluently XL Lightning renders a great image, and as a rare case, it is even 'safe'!

0E-8 BEE

Wow! gefällt mir! Auf diesem Bild würde ein blanker Busen den Eindruck nur stören/ablenken!

0.00000378 BEE