‘Moeten wij onze artikelen beschikbaar stellen voor AI-taalmodellen van Big Tech?’
Heb je vragen over AI en journalistiek, maar ken je niemand aan wie je die kunt stellen? Vraag het Vreekamp! Een rubriek waarin vakgenoten hun zorgen met betrekking tot artificiële intelligentie kunnen delen. Dit keer: de dilemma’s van data delen met AI.
Hi Laurens,
Moeten wij onze artikelen beschikbaar stellen als trainingsmateriaal voor AI-taalmodellen van Big Tech? Onze redactie komt er niet uit. Hoe maken we de juiste keuze?
Groetjes, Daphne.
Basisschool De Wegwijzer in Spakenburg kende ooit een vreselijk nare traditie: een boerenkoolmaaltijd op de dag voor de kerstvakantie. Alsof dat niet erg genoeg was, mikten ze de door verschillende ouders bereide stamppotten allemaal in een grote pan. Gatver.
Ik krijg hetzelfde gevoel bij de journalistieke output die ChatGPT en Gemini (van Google) uitbraken. Er schuilt vast kwaliteit in het basismateriaal, kwantitatief gezien is er wat voor te zeggen, maar alles bij elkaar behandelen ze zowel maker als consument respectloos.
Content creators raken sinds ChatGPT doordrongen van dit dilemma. Veel van origine papieren kranten en tijdschriften zeggen ‘nee’ tegen de contentschrapers van OpenAI en Google, zo bleek uit onderzoek van het Reuters Institute. Ernaar gevraagd, verwacht vrijwel geen enkele nieuwsorganisatie er substantieel aan te verdienen (Axel Springer en AP, die overeenkomsten sloten met OpenAI, daargelaten).
Meedoen maakt je medeplichtig aan het verder onzichtbaar maken van journalistiek werk op het web. Je stukken verliezen kwaliteit in de brij van bedenkelijk mede-materiaal zoals mijn moeders boerenkool. Zeggenschap over je materiaal verdwijnt zodra de modellen zijn getraind.
‘Ja maar’, roept iemand, ‘Schrijfbots zoals ChatGPT en Perplexity.ai vermelden toch bronnen?!’ De vraag is wat dat oplevert. Een alternatief lijkt wat de BBC wil: gebruik maken van het eigen archiefmateriaal.
Wie AI-toepassingen ontwikkelt heeft drie ingrediënten in overvloed nodig: geld, technologie (hard- en software) en data. De eerste twee hebben journalistieke organisaties niet; weinig redacties zijn zo geëquipeerd als The New York Times of bezitten archieven zoals de BBC. Het zou een gotspe zijn om die derde asset - jullie content - voor een habbekrats te verpatsen aan bedrijven die bij een deal meer winnen dan jij.
Kiezen voor ‘ja’ valt overigens prima te legitimeren, zo leerde navraag. Omroepredacties beargumenteren hun keuze bijvoorbeeld op ideologische leest. VPRO hanteert de Tony Chocolonely-aanpak: valt te garanderen dat AI-modellen onbevooroordeeld, duurzaam en veilig ontwikkeld zijn, dan is toepassing ervan toegestaan. De realiteit is dat ‘geoorloofd gebruik’ van de huidige generatieve AI-software onmogelijk is.
Bij de EO verwelkomen ze de GPTbots juist. Artikelen van christelijke signatuur, zo redeneert de omroep, zijn broodnodige toevoegingen aan Silicon Valley’s overtuiging dat bij neutraliteit en objectiviteit een voornamelijk atheïstisch wereldbeeld hoort. Het zijn soortgelijke vermoedens van links techdenken waardoor alt-right in Amerika de chatbots zo graag voert met hun stukken. Zo bezien leidt het actief toevoegen van pluriforme content - bijvoorbeeld rechts, christelijk of liberaal - tot gevarieerdere en inclusievere chatbots.
Linksom of rechtsom, inzet van generatieve AI voor journalistieke doeleinden blijft problematisch. Dat komt door hoe taalmodellen werken. Het zijn grammatica-georiënteerde kansberekenaars, getraind op arbitraire data, met een voorkeur voor het grijze gemiddelde. AI-software ontbeert begrip van de wereld en bootst slechts feiten na. Tel daarbij op dat OpenAI en Google geen buitenstaanders dulden die modellen onafhankelijk evalueren. Met zulke ondoorzichtige voorwaarden en besluitvorming is het kansloos om in te schatten welke waarde jouw stukken hebben (en welke prijs je daarvoor kunt/moet vragen).
Een redactie die artikelen beschikbaar stelt weet één ding zeker: journalistiek werk wordt door de modellen en hun gebruikers getransformeerd van eindproduct tot grondstof. Wil de journalistiek duurzaam voortbestaan dan is mijn advies om onzichtbaar te worden voor AI; niet door AI.
Succes en groet, Laurens
Laurens Vreekamp is oprichter van de Future Journalism Today Academy en mentor bij het Stimuleringsfonds voor de Journalistiek.
Heb je ook een vraag voor Laurens? Mail hem op info@laurensvreekamp.nl


Praat mee