Til folkemødet fredag den 14. juni gik debatten på deepfakes:
Hvordan føles det? Hvem bliver ramt? Hvad kan vi gøre?
Johanne Schmidt Nielsen fra Red Barnet har på ”egen krop” oplevet at blive deep faket ind pornografisk sammenhæng og derefter spredt fotos viralt. Maibritt Berlau fra Sex og Samfund, ser dybt bekymrende tendenser på, hvordan den ny AI-generede teknologi misbruges til skabe sexvideoer og dele dem.
”Selvom materialet er falsk, er de følelser, det skaber hos offeret, ægte. Jeg har mærket de følelser. Jeg kan næsten ikke holde ud at tænke på, hvilke følelser det skaber hos for eksempel et 11-årigt barn. At materialet er falsk betyder med andre ord ikke, at vi skal undlade at tage det alvorligt,” Johanne Schmidt Nielsen.
PROSA satte fokus på deep fakes på Folkemødet
It-fagforeningen PROSAs forbundssekretær Amanda Christiansen modererede debatten og indledte den blandt andet med følgende:
"Det er vigtigt, at vi sætter fokus på deepfakes. Om det er imiteret video, lyd eller billeder, kan det have indflydelse på os alle sammen, vores samfund og vores demokrati. Vi ser oftere og oftere kendte og politikere udsat for det, men også helt almindelige mennesker der bliver snydt for penge af falske børn eller falske opkald på arbejdspladsen. Derfor er det vigtigt, at vi snakker om det og arbejder på at finde nogle gode løsninger, så i kan få nytte af alle de goder, der også kommer med denne teknologi."
Maibritt Berlau fra Sex og Samfund supplerer:
”Deep fakes er grundlæggende en krænkelse af retten til at bestemme over egen krop. Selv hvis billedet ikke deles, så har man ved manipulationen af billedet brugt en andens krop uden samtykke. Deep fakes og billeddeling er generelt utrygt for mange unge. Selvom de godt ved, at de ikke må, så er tanken om at det kan ske med til at skabe en grundlæggende utryghed. Og for de som rammes, er konsekvenserne ofte meget voldsomme.”
Danskerne er enige. I en nylig undersøgelse foretaget af Megafon for PROSA svarer 93 pct., at de synes, at det skal gøres lovpligtigt, at al offentliggørelse af digitalt indhold, der omfatter deep fakes, skal have en klar mærkning, hvor der gøres opmærksom på, at der er brugt deep fakes. Knap 60 pct. mener, at det skal gøres lovpligtigt, at al offentliggørelse af originalt digitalt indhold på sociale medier skal have en klar mærkning, hvor der gøres opmærksom på, at det er originalt, og ikke deep fake.
PROSAS næstformand og digitale ekspert, Curt Kjærsgaard Raavig, styrede debatten og forsøge at kaste lys over det voksende problem. Han er enig i, at deepfakes er ikke bare en trussel, den rammer også den demokratiske tillid lige i mellemgulvet.
> Se danskernes holdning til digitalisering, regulering af sociale medier og deepfake
”Deepfake har i den grad taget til i takt med teknologiens udvikling, hvor man kan opleve, at nogen tager ens billeder på sociale medier og manipulerer en nøgen krop ind, for eksempel ved kunstig intelligens - så det ligner et ægte nøgenfoto. Herefter bliver det delt og dermed spredt på sociale medier. Det har en enormt skadelig indvirkning på den ramte, som oftest er en kvinde.
”Deepfake-teknologien er givet fri uden, at vi har stillet krav til de platforme, hvor indholdet deles. Jeg mener, at vi som samfund skal sende et klart signal om, at selvfølgelig skal man ikke bare kunne tage andres ansigt og krop og producere deepfake porn og så dele det. Sker det skal man som berørt eller anmelder hurtigt kunne komme direkte kontakt med platformen, som skal fjerne det krænkende indhold”, sagde PROSAs næstformand, Curt Kjærsgaard Raavig.
Se også videoen, hvor PROSAs it-politiske konsulent, Ole Tange, forklarer, hvordan teknologi kan gøre det lettere at spotte deepfakes og AI.