AI-Mediajournaal: Wie neemt redactionele beslissingen - mens, machine of hybride?
Om de twee weken maakt Nele Goutier voor Villamedia een nieuwsbrief met de belangrijkste én leukste ontwikkelingen op het gebied van AI binnen de journalistiek. In dit artikel lees je enkele onderdelen uit haar meest recente nieuwsbrief. Deze week onder meer: wie neemt de redactionele beslissingen - mens, machine of hybride?
Veel AI-richtlijnen schrijven transparantie voor, zonder duidelijk te maken hoe en wat precies.
Lastig, want op de loer ligt de transparantieparadox: hoe meer transparantie over het gebruik van AI, hoe minder geloofwaardig in de ogen van het publiek, suggereert deze studie van de universiteiten van Oxford en Minnesota.
Katharina Schell (Austria Press Agentur) gebruikte haar fellowship bij het Reuters Institute om tot concrete aanbevelingen te komen voor AI-transparantie. Ze stelt een systeem voor waarin we duidelijker maken wat AI precies gedaan heeft in het journalistieke proces in plaats van te kiezen voor generieke labels. Want dat gebruikers labels als “gemanipuleerd”, “deepfake” of “niet echt” niet bijzonder betrouwbaar vinden, is niet heel verrassend. Hoeveel detail je geeft, bepaal je op basis van twee vragen:
1. Wie maakt de redactionele beslissingen – mens, machine of hybride?
2. Wat is de impact op redactionele autonomie – laag, medium of hoog?
Neem text-to-speech-toepassingen, zoals een AI-gegenereerde stem die een bestaand artikel voorleest. Omdat de inhoud van een journalist komt, liggen de redactionele beslissingen bij mensen en is de impact op de redactionele autonomie laag.
Conversational interfaces
Heel anders is dat bij bijvoorbeeld conversational interfaces, waarin de gebruiker in gesprek kan met een chatbot. Omdat niet ieder antwoord door mensen gecheckt wordt (het gaat immers om live interactie) ligt de beslissing bij de machine en is de impact op de redactionele autonomie hoog. Dat vraagt om heel andere transparantie, betoogt Schell.


Praat mee