Ein neuer KI-Trend macht Werbung für Portale, auf denen man angeblich Promis ins Bett bekommt.
Gerade auf Instagram kursieren seit Tagen Bilder von Frauen, die Stars wie LeBron James, Mike Tyson oder Dwayne „The Rock“ Johnson rumgekriegt haben wollen. Laut einem Bericht von 404 Media gibt es meist ein Bild vor und nach dem angeblichen Sex.
KI-Masche führt auf Abo-Seiten
Natürlich sind die Aufnahmen nicht echt – die Stars und sogar die Models sind komplett KI-generiert. Ähnliche Bilder werden massenhaft auf Profilen von künstlichen Models verteilt und haben meist nur ein Ziel: Geld mit Abos verdienen.
Oft leiten die Links unter dem Post zu Websites wie Fanvue – einem Portal von Sex-Streams mit teils echten Frauen und teils KI-Models. Am Abschluss eines kostenpflichtigen Abos verdienen die KI-Instagram-Kanäle.
Grok und Meta schauen nur zu
Obwohl die Prominenten eindeutig nicht zugestimmt haben, werden ihre Gesichter und Namen für pikante KI-Bilder verwendet. Grok ist mittlerweile dafür bekannt, kaum Anfragen zu verweigern, seien die Bilder auch noch so anzüglich.
Auch Meta, auf dessen Plattformen die Promi-Bilder verteilt werden, unternimmt viel zu wenig gegen deren Verbreitung. Die Moderation von Content wurde eingestellt, nachdem Donald Trump Präsident wurde. So werden soziale Medien immer mehr zum neuen Wilden Westen ohne Rücksicht auf die Nutzer oder die Promis.
Hinweis: Artikel enthält Affiliate-Links. Was ist das? Bild: Pixabay, Header iTopnews

