Logo van bright

-Technologie

AI-tool Sora 2 misbruikt voor gewelddadige video's

Opvallend
Copyright bright
Foto: Kort News

OpenAI's nieuwste AI-videotool wordt gebruikt om hyperrealistische beelden van geweld tegen vrouwen te maken, die massaal worden gedeeld op sociale media.

In het kort:

Sora 2 maakt het mogelijk om extreem realistische geweldsbeelden te creëren die moeilijk van echte video's te onderscheiden zijn.

  • De AI-gegenereerde video's tonen vrouwen en meisjes die gewurgd worden en gaan viraal op TikTok en X
  • Watermerken worden weggehaald waardoor het onderscheid tussen echt en nep verdwijnt
  • Sociale mediaplatformen falen bij het tegenhouden van deze verboden content

Achter de schermen:

De trend toont de zwakke punten in online veiligheid en contentmoderatie aan. TikTok reageerde pas na journalistieke druk, terwijl X helemaal geen actie ondernam ondanks gebruikersklachten.

Het grote plaatje:

Overheden beginnen nu in te grijpen vanwege de ernst van de situatie. Het Verenigd Koninkrijk maakt alle pornografische wurgingsbeelden strafbaar, ongeacht of ze echt of AI-gegenereerd zijn. Wereldwijd groeit de druk op tech-bedrijven als OpenAI en sociale mediaplatformen om effectievere veiligheidsmaatregelen te implementeren tegen misbruik van AI-technologie.

Bronnen

De wereld van AI in één oogopslag

VandaagAI.nl brengt je het belangrijkste AI nieuws in het formaat dat je van ons gewend bent.

VandaagAI
Bezoek de site

Meer technologie

Het belangrijkste nieuws gratis in je mailbox

Elke week een korte e-mail met de meest relevante verhalen.