— dinsdag 15 april 2025 11:11 | 0 reacties , praat mee

Onderzoek: nieuwe richtlijnen voor AI in journalistieke beelden hard nodig

Onderzoek: nieuwe richtlijnen voor AI in journalistieke beelden hard nodig
AI-beeldgeneratie heeft een plek in de journalistiek, maar moet goed worden gekaderd. Redacties moeten zich ook bewust zijn van de risico's en ethische bezwaren die aan beeldmakers kleven, zoals potentiële vooringenomenheid en geheimzinnigheid over de gebruikte trainingsdata. (Ook dit beeld is gemaakt met behulp van AI) | Sora

Onderzoekers aan de Universiteit Leiden pleiten voor meer kaders rondom de inzet van AI in journalistieke beeldproductie, een actieve betrokkenheid van redacties en transparantie wanneer AI werd gebruikt. Voor het onderzoek AI in Beeld werd gesproken met fotografen, beeldredacteuren en vormgevers. Ook gaven Ombudsmannen van diverse grote media hun mening over AI-beeldgebruik. Laatste wijziging: 15 april 2025, 11:45

De deelnemers stellen dat beeldgeneratie via AI zeker nieuwe mogelijkheden voor beeldgebruik oplevert, maar ook ethische vragen oproept. Dat betreft niet alleen potentieel verlies van werk voor fotografen en illustratoren, maar ook de ecologische impact van energievretende servers en vooringenomenheid van AI-beeld, dat elke vooringenomenheid van de trainingsdata - weinig representatie van mensen met een migratie-achtergrond bijvoorbeeld- zal spiegelen.

Verder zijn de modellen van de populairste beeldmakers niet alleen gesloten, maar ook getraind met miljarden beelden waarop vermoedelijk auteursrecht rust. Geen van de beeldmakers draagt vergoedingen af voor dit ongevraagde en ongeoorloofde gebruik.

“AI wordt momenteel vooral ingezet voor het creëren van illustraties bij opiniestukken of conceptuele onderwerpen zoals inflatie of klimaatverandering. Het vermogen om snel aangepaste stockfoto’s, infographics en alternatieve visualisaties te genereren, wordt gezien als een meerwaarde voor de journalistieke praktijk.”, schrijven de onderzoekers.

Wel is het via AI mogelijk om beelden te maken die gevaarlijk of zelfs onmogelijk te maken zijn. “Toch blijft de toepassing van AI voor pure nieuws- en reportagefotografie zeer omstreden”, concluderen de onderzoekers.

Leidse onderzoekers pleiten voor nieuwe richtlijnen voor AI in journalistieke beelden | Universiteit Leiden

De respondenten veroordelen allen de inzet van AI-beeldgeneratie voor nieuwsbeeld. In de handvol AI-richtlijnen die uitgevers hebben gepubliceerd wordt dit ook altijd expliciet verboden. Ook schrijven die richtlijnen altijd voor dat er een mens de finale beslissingen neemt, de zogeheten human in the loop.

De perceptie van AI als een ‘goedkope vervanger’ van mensen wordt volgens de onderzoekers vooral gevoed door managers, terwijl journalisten zelf AI vaak als een ondersteunend hulpmiddel zien.

“Veel redacties hebben nog geen duidelijke richtlijnen over hoe AI-gegenereerde beelden verantwoord kunnen worden gebruikt. Daar waar richtlijnen bestaan, zijn deze vaak versnipperd, niet gestandaardiseerd en vaak onbekend bij de ondervraagde beeldredacteuren en fotojournalisten. De journalistieke beroepsgroep bevindt zich in een fase van experimenteren, meestal zonder vaststelling van heldere ethische of praktische kaders”, concluderen de onderzoekers.

Mede daardoor iser sprake van kennissilo’s binnen redacties, waarbij de AI-expertise meestal beperkt blijft tot een zeer kleine groep specialisten en niet gelijkmatig wordt verdeeld. “Op enkele gunstige uitzonderingen na, bijvoorbeeld de beeldredactie van ANP, blijkt dat veel beeldredacteuren en fotografen beperkte kennis hebben over hoe AI-tools precies werken en over het detecteren van AI-beeld. Dit gebrek aan expertise kan leiden tot ongewenst gebruik of misinterpretatie van AI-beelden. Uit het verificatie-experiment van dit onderzoek, waarin respondenten AI-beelden van reguliere foto’s moesten onderscheiden, blijkt dat dit onderscheid steeds moeilijker te maken is en dat gestandaardiseerde verificatieprocedures nog zeldzaam zijn”, stellen de onderzoekers.

Ze doen vijf aanbevelingen voor een verantwoorde inzet van AI-beelden:

  • Stel redactierichtlijnen op voor het gebruik van beeld-AI, met heldere grenzen
  • Investeer in scholing over AI, ethiek en beeldherkenning binnen redacties
  • Versterk technische controle op manipulatie van beelden
  • Zorg voor transparantie op maat, bijvoorbeeld via labels, metadata of disclaimers
  • Betrek het publiek actief in het gesprek over AI en nieuwsproductie
NVJ LID 26-05

Tip de redactie

Logo Publeaks Wil je Villamedia tippen, maar is dat te gevoelig voor een gewone mail? Villamedia is aangesloten bij Publeaks, het platform waarmee je veilig en volledig anoniem materiaal met de redactie kunt delen: publeaks.nl/villamedia

Praat mee