Over NPO
EO | Artificial Intelligence

In post-productie iemand middels deepfake anonimiseren

Soms willen personen met een persoonlijk of gevoelig verhaal niet herkenbaar in beeld komen. Denk aan klokkenluiders, getuigen, slachtoffers van misdrijven etc. Het anonimiseren van de persoon door het ‘blurren’ van een gezicht of iemand alleen in silhouet te laten zien, zijn dan veel gebruikte methoden.

De EO start met een vervolgexperiment waarbij het maken van een Deepfake-handleiding centraal staat.
Alleen hebben deze methoden behoorlijk wat nadelen. Ten eerste lijkt het alsof de persoon wat te verbergen heeft, zijn/haar verhaal wordt sneller gezien als ‘ongeloofwaardig’ of zelfs ‘verdacht’. Daarnaast gaat het ten koste van de impact van het verhaal. Wanneer je iemand niet in de ogen kunt kijken en zijn of haar mimiek niet kunt zien is dat een serieuze belemmering in de communicatie. Ogen en gelaat zorgen voor identificatie en empathie. Juist bij kwetsbare en persoonlijke verhalen is dit van groot belang. Ten derde is het inzetten van ‘blurren’ en/ of in silhouet filmen arbeidsintensief tijdens de opname en in het postproductieproces. En doordat het niet flexibel inzetbaar ook lastig in de eindmontage te verwerken.

Een kans om deze nadelen op te lossen ligt gebruik van Deepfake-technologie. Waar Deepfake voorheen alleen mogelijk was in gecontroleerde omstandigheden (vaste shots, goede belichting, frontale shots, neutrale achtergrond), lijkt de techniek nu zover ontwikkeld dat ook in minder gecontroleerde situaties goede resultaten behaalt kunnen worden en het daarmee breed inzetbaar is voor allerlei producties.
De onderzoeksvragen die de EO wil beantwoorden, zijn: 
  • Is het mogelijk om Deepfake succesvol toe te passen op beelden die opgenomen zijn in niet- gecontroleerde omstandigheden (ENG)?
  • Bewijst de proof-of-concept dat het mogelijk is om een betaalbare en gebruikersvriendelijke tool te maken die NPO-breed in post-productie gebruikt kan worden om personen met Deepfake te anonimiseren?
  • Welke ethische bezwaren leven er onder kijkers over het gebruik van Deepfake?
  • Wat kan mogelijke ethische bezwaren tegen Deepfake wegnemen/verminderen?

De aanbevelingen

  • Ontwikkelen Deepfake-tool
In dit onderzoek hebben we gekeken of het mogelijk is om een tool te ontwikkelen
waarmee, op een laagdrempelige manier, Deepfake toegepast kan worden in de
postproductie van programma’s van de NPO. ML6 concludeert in hun verslag dat het mogelijk is om een dergelijke tool te bouwen voor video’s die voldoen aan bepaalde voorwaarden. Zo moet het doel-gezicht vrij zijn van obstructies en mogen er geen zijaanzichten voorkomen. Daarnaast zal een database van bron-gezichten aangelegd moeten worden. De EO vindt deze voorwaarden haalbaar en denkt dat een dergelijke tool in de praktijk bruikbaar zal zijn voor de omroepen binnen de NPO. Een mogelijke vervolgstap op dit onderzoek zou kunnen zijn om deze tool daadwerkelijk te laten ontwikkelen. De vraag is nog wel of het ontwikkelen van zo’n tool onderdeel is van de rol van de publieke omroep, zeker aangezien verwacht wordt dat een dergelijke tool in de toekomst beschikbaar zal komen als onderdeel van bestaande software pakketten.

  • Ontwikkelen beleid en keurmerk voor Deepfake
In dit onderzoek hebben we ook gekeken naar de mogelijke ethische bezwaren bij het gebruik van Deepfake en hoe deze bezwaren verminderd of zelfs weggenomen kunnen worden. In de gesprekken met de focusgroepen werd duidelijk dat bijna iedereen terughoudend is als het gaat om het toepassen van Deepfake. Men ziet zeker de meerwaarde van het gebruik van Deepfake voor positieve doeleinden (b.v. bescherming van personen), maar men is ook duidelijk bezorgd over de mogelijkheden tot misbruik. Onder de focusgroepen van dit onderzoek was er algemene consensus over het feit dat een kijker altijd op de hoogte moet zijn dat er Deepfake gebruikt is in de content waar hij naar kijkt. Een aantal opties voor vermelding/waarschuwing is in dit onderzoek aan de focusgroepen voorgelegd. Dit geeft al enige informatie over wat kijkers adequate vermelding vinden, maar dit is nog geen basis voor beleid of uitvoering. De EO ziet de noodzaak voor een duidelijk en transparant beleid waar het gaat om de toepassing van Deepfake bij de NPO, en mogelijk het bredere medialandschap in Nederland. Waar Deepfake op sociale media en online platformen breed toegepast wordt om fake news te verspreiden, draagt deze technologie bij aan de groeiende argwaan in de maatschappij ten aanzien van de bredere media.

Het gaat dan om het volgende:
- de ontwikkeling van duidelijk en transparant beleid op gebied van Deepfake
- de ontwikkeling van een keurmerk/kijkwijzer
- goede voorlichting op het gebied van Deepfake

Dit kan als validatie traject opgepakt worden, onderdeel zijn van een groeifase, of een onderdeel zijn dat door de NPO zelfstandig opgepakt wordt.

  • Nieuw programma met Deepfake
Als test-case voor dit onderzoek is een item uit het EO-programma Jojanneke uit de prostitutie gebruikt. Helaas is het niet gelukt om dit item met Deepfake in de uitzending te krijgen. Het betreffende personage was, ondanks de het geslaagde Deepfake-gezicht, nog te herkenbaar. In dit onderzoek is echter duidelijk geworden wat er nodig is om iemand, met behulp van Deepfake, onherkenbaar genoeg te maken dat het mogelijk is om een dergelijk item toch uit te zenden. Mocht het ontwikkelen van een tool nog een te grote vervolgstap zijn, dan zou het een overweging zijn om met de opgedane kennis een nieuwe validatie te doen met als doel dat de Deepfake ook daadwerkelijk gebruikt wordt in het programma.

Projectoverzicht

Filter op:

Thema's