Jeg tror desværre aldrig fænomenet forsvinder, for det vil kræve at man får banket fornuft ind i hovedet på hver eneste mand i verden. Held og lykke med det projekt.
mobani on
Hvorfor er folk så naive, de bør seriøst lave det en del af pensum i folkeskolen at lære folk omkring brugen af internettet og konsekvenserne ved at publicere sig selv som streamer/youtuber/influencer osv. Alt du lægger på internettet kan misbruges. Det er ikke et spørgsmål om hvis, men hvornår dit content bliver misbrugt af en 3. part.
Vi har set folk lave falske billeder med photoshop i over 20 år, og nu med generativ AI, så er det nemmere end nogensinde. Men det kan simpelthen ikke komme bag på nogen.
PalnatokeJarl on
En snebold har en større chance for at komme uskadt gennem skærsilden.
Teoh_02 on
>nøgenbilleder i **gamer**-miljøet
De her idioter skal stoppe med at give gamere skylden for alt; dette problem rækker langt ud over denne gruppe af mennesker.
Onanissen on
Det her er så sygt som noget kan være. Jeg har næsten lyst til at sige, at jeg er glad for, at jeg ikke er en kvinde. Jeg frygter personligt ikke for, at nogen misbruger mine billeder, men hvor har jeg ondt af de kvinder, som oplever dette. Og det er jo ikke kun kendte youtubere, streamere og kendte, som oplever dette. Jeg har set helt almindelige piger og kvinder i næsten alle aldre blive udsat for dette fx. ved at et billede af dem er blevet sat ind på et billede af en nøgen kvindekrop, der passer til vedkommendes krop. Og det bliver kun lettere og mere tilgængeligt for drenge, mænd og andre kvinder at gøre det.
Da jeg var yngre kunne jeg jævnligt frekventere 4chan og andre image boards, hvor der blev delt sådanne billeder på linje med alle mulige andre billeder, såsom naturbilleder eller billeder af katte og hunde.
Jeg væmmes over det.
Savings-War4526 on
Fint at sætte noget opmærksomhed på det, men hvad i alverden betyder “en af danmarks største gamere”?
DET_SWAT on
Så længe teknologien findes vil der altid være nogen der misbruger det
AsheDigital on
Da jeg var 12 crackede jeg photoshop og lavede fake nøgenbilleder af Megan Fox, selvfølgelig delte jeg det aldrig og er bestemt ikke stolt at det, men det her er intet nyt og har været ret nemt og tilgængeligt i over et årti.
manfredmannclan on
Jeg synes at det er en interressant debat, hvad der skulle være galt med AI nøgenbilleder. For de er vel ikke forskellige fra de photoshoppede nøgenbilleder af kendte der har eksisteret siden for evigt. Eller sågar en karikaturtegning, som har lange traditioner.
Må man f.eks. male et andet menneske uden accept? Og hvad hvis jeg bare fantaserede om hvordan du så ud nøgen?
Uagtet, så er billedet jo ikke mere ægte end hvis jeg klippede et ansigt ud af avisen og klistrede det på et pornoblad.
Alternative_Pear_538 on
> Fænomenet bliver kaldt ‘deepfakes’ og er AI-genereret porno
Nja, deepfakes er AI-redigeret ikke AI-genereret. Men jeg er med på at for den gængse læser af DR nyheder er det en forskel der allerede er fløjet langt over hovedet på dem.
Den vigtigste forskel er at deepfakes er gammel teknologi hvor man bytter ansigter ud med andre ansigter, som man også har kunnet gøre i Photoshop i over 2 årtier. I dag er alle er gået videre til AI genereret indhold, da det ikke kræver tusindvis af billeder og timevis af træning.
Det er også umuligt at gøre noget ved da alle kan downloade en open source model som f.eks. Stable Diffusion, der er en helt almindelig billedgenereringsmodel. Derefter kan de med meget få ændringer, få den til at generere AI billeder af kendte. Det kræver kun omkring 10 billeder af personen.
> For selvom online grupper lukkes ned, lever utrygheden og angsten for, hvornår et billede dukker op igen, da billederne aldrig forsvinder helt. Selv hvis disse online-grupper lukkes, så forsvinder billederne aldrig.
Jeg er lidt uklar på hvad de overhovedet forsøger at sige her.. Nej data forsvinder ikke fordi man lukker en kommunikationsvej ned. Vil de have at politiet tager rundt til alle der nogensinde har besøgt gruppen og tjekker alle harddiske og USB sticks? Hvad hvis personen bor i et fjernt land?
Hvis argumentet er at disse billeder aldrig skal kunne skabes i første omgang, så er det umuligt. Hvis man vil gøre det ulovligt at lave og distribuere billederne.. Det er det jo allerede?
Så kan man forsøge med en kulturel ændring, men den starter i hvert fald ikke i en fire afsnits serie på DR. Der skal meget stærkere midler til, og der skal startes i en ung alder. Der er passende noget som folkeskoler kunne tage fat på, hvis ellers regeringen stoppede med at tage pengene fra uddannelse.
> en af Danmarks største gamere, Marie Watson
Obligatorisk: Hvem?
Akriyu on
>I gamer-miljøet
?????
YoloKraize on
Lidt tamt at det er “Gamer” miljøet når deepfakes er et langt større problem når det kommer til porno, er jo fandme sider hvor det deepfaker børn…
12 Comments
Jeg tror desværre aldrig fænomenet forsvinder, for det vil kræve at man får banket fornuft ind i hovedet på hver eneste mand i verden. Held og lykke med det projekt.
Hvorfor er folk så naive, de bør seriøst lave det en del af pensum i folkeskolen at lære folk omkring brugen af internettet og konsekvenserne ved at publicere sig selv som streamer/youtuber/influencer osv. Alt du lægger på internettet kan misbruges. Det er ikke et spørgsmål om hvis, men hvornår dit content bliver misbrugt af en 3. part.
Vi har set folk lave falske billeder med photoshop i over 20 år, og nu med generativ AI, så er det nemmere end nogensinde. Men det kan simpelthen ikke komme bag på nogen.
En snebold har en større chance for at komme uskadt gennem skærsilden.
>nøgenbilleder i **gamer**-miljøet
De her idioter skal stoppe med at give gamere skylden for alt; dette problem rækker langt ud over denne gruppe af mennesker.
Det her er så sygt som noget kan være. Jeg har næsten lyst til at sige, at jeg er glad for, at jeg ikke er en kvinde. Jeg frygter personligt ikke for, at nogen misbruger mine billeder, men hvor har jeg ondt af de kvinder, som oplever dette. Og det er jo ikke kun kendte youtubere, streamere og kendte, som oplever dette. Jeg har set helt almindelige piger og kvinder i næsten alle aldre blive udsat for dette fx. ved at et billede af dem er blevet sat ind på et billede af en nøgen kvindekrop, der passer til vedkommendes krop. Og det bliver kun lettere og mere tilgængeligt for drenge, mænd og andre kvinder at gøre det.
Da jeg var yngre kunne jeg jævnligt frekventere 4chan og andre image boards, hvor der blev delt sådanne billeder på linje med alle mulige andre billeder, såsom naturbilleder eller billeder af katte og hunde.
Jeg væmmes over det.
Fint at sætte noget opmærksomhed på det, men hvad i alverden betyder “en af danmarks største gamere”?
Så længe teknologien findes vil der altid være nogen der misbruger det
Da jeg var 12 crackede jeg photoshop og lavede fake nøgenbilleder af Megan Fox, selvfølgelig delte jeg det aldrig og er bestemt ikke stolt at det, men det her er intet nyt og har været ret nemt og tilgængeligt i over et årti.
Jeg synes at det er en interressant debat, hvad der skulle være galt med AI nøgenbilleder. For de er vel ikke forskellige fra de photoshoppede nøgenbilleder af kendte der har eksisteret siden for evigt. Eller sågar en karikaturtegning, som har lange traditioner.
Må man f.eks. male et andet menneske uden accept? Og hvad hvis jeg bare fantaserede om hvordan du så ud nøgen?
Uagtet, så er billedet jo ikke mere ægte end hvis jeg klippede et ansigt ud af avisen og klistrede det på et pornoblad.
> Fænomenet bliver kaldt ‘deepfakes’ og er AI-genereret porno
Nja, deepfakes er AI-redigeret ikke AI-genereret. Men jeg er med på at for den gængse læser af DR nyheder er det en forskel der allerede er fløjet langt over hovedet på dem.
Den vigtigste forskel er at deepfakes er gammel teknologi hvor man bytter ansigter ud med andre ansigter, som man også har kunnet gøre i Photoshop i over 2 årtier. I dag er alle er gået videre til AI genereret indhold, da det ikke kræver tusindvis af billeder og timevis af træning.
Det er også umuligt at gøre noget ved da alle kan downloade en open source model som f.eks. Stable Diffusion, der er en helt almindelig billedgenereringsmodel. Derefter kan de med meget få ændringer, få den til at generere AI billeder af kendte. Det kræver kun omkring 10 billeder af personen.
> For selvom online grupper lukkes ned, lever utrygheden og angsten for, hvornår et billede dukker op igen, da billederne aldrig forsvinder helt. Selv hvis disse online-grupper lukkes, så forsvinder billederne aldrig.
Jeg er lidt uklar på hvad de overhovedet forsøger at sige her.. Nej data forsvinder ikke fordi man lukker en kommunikationsvej ned. Vil de have at politiet tager rundt til alle der nogensinde har besøgt gruppen og tjekker alle harddiske og USB sticks? Hvad hvis personen bor i et fjernt land?
Hvis argumentet er at disse billeder aldrig skal kunne skabes i første omgang, så er det umuligt. Hvis man vil gøre det ulovligt at lave og distribuere billederne.. Det er det jo allerede?
Så kan man forsøge med en kulturel ændring, men den starter i hvert fald ikke i en fire afsnits serie på DR. Der skal meget stærkere midler til, og der skal startes i en ung alder. Der er passende noget som folkeskoler kunne tage fat på, hvis ellers regeringen stoppede med at tage pengene fra uddannelse.
> en af Danmarks største gamere, Marie Watson
Obligatorisk: Hvem?
>I gamer-miljøet
?????
Lidt tamt at det er “Gamer” miljøet når deepfakes er et langt større problem når det kommer til porno, er jo fandme sider hvor det deepfaker børn…