Vraag het Vreekamp: Moet ik me zorgen maken om AI-agenten?
Heb je vragen over AI en journalistiek, maar ken je niemand aan wie je die kunt stellen? Vraag het Vreekamp! Dit keer een vraag van Emma: "Beste Laurens, ik ben nog maar net aan het idee van kunstmatige creativiteit gewend. En nu hoor ik alweer over zogeheten AI-agenten. Zijn deze autonome assistenten iets waar ik als journalist van dien te schrikken of juist moet dromen? Help!"
“Weet je wat jij moet hebben?” zei een vriend twee jaar geleden, nadat mijn boek uitkwam en ik dankzij de introductie van ChatGPT veel aanvragen voor spreekbeurten kreeg. “Een agent!” Ik besloot zijn advies op te volgen. Tegen een percentage besteed ik nu vrijwel al mijn onderhandelingen, klantcommunicatie, agendabeheer en facturatie uit aan Kiki en krijg ik daarvoor feedback, advies en ongevraagde tips terug. Zij kent mijn werk en voelt aan op welke plek en bij welk publiek mijn verhaal past. Ze denkt mee en houdt contacten warm. Ik gun iedereen deze agent, maar van Kiki is er helaas maar een. En daar willen AI-softwarebouwers verandering in brengen.
Wat is een AI-agent?
Het is in essentie een digitale assistent die, in opdracht van jou, zelfstandig online handelt. Het verschil met ‘gewone’ AI-chatbots (zoals ChatGPT) zit hem in drie dingen. Agenten
1. zoeken op het actuele web,
2. redeneren logisch en
3. ondernemen zelfstandig actie, buiten de chatbot-interface om.
De makers van chatbot Claude.ai toonden onlangs hun agent ‘Computer Use’, waarbij twee AI-agenten samen een computer bedienen en een jaren ‘90-website ontwerpen en werkend krijgen. Wil je bijvoorbeeld de telefoonnummers van alle Nederlandse bibliotheken netjes in een spreadsheet krijgen, dan hoef je straks een agent maar de opdracht te geven en je ontvangt niet veel later een Excelbestandje in je mail.
Natuurlijk Emma, er zijn al chatbots die het web doorzoeken en zeggen te kunnen redeneren. Zo maakt een nieuw model voor ChatGPT gebruik van iets dat ‘chain of thought’ heet: het model maakt een soort denksprong, bedenkt een plan en voert het uit.
Salesforce en Microsoft positioneren hun agent-technologie dan ook als de volgende logische stap na AI-chatbots: het staat niet alleen de klanten van bedrijven te woord, maar regelt bijvoorbeeld meteen ook het ruilen van een bestelling. Aanbieders van AI-agenten beloven efficiency, schaalbaarheid en 24/7 beschikbaarheid.
Waarvoor journalisten AI-agenten (zullen) gebruiken?
AI-agenten kunnen routinematige journalistieke taken overnemen, zoals het zoeken naar bepaalde personen op Linkedin of samenvatten van posts op 100 verschillende Bluesky-accounts.
Journalistiek-onderzoekers Joris Veerbeek en Nick Diakopoulos gaan nog een stap verder. Zij werkten een scenario uit met drie AI-agenten die de rol van analist, editor en reporter op zich nemen. Daarbij verwerkt de eerste grote hoeveelheden data, de tweede stelt vragen bij de uitkomsten ervan en geeft de derde agent opdracht om verder te zoeken.
Gereedschap-gebaseerde en simulatie-gebaseerde agenten
Bovengenoemde voorbeelden zijn in het nieuwe domein van zogeheten ‘agentic AI’ van het type ‘tool-based’: gereedschap. Ze vullen autonoom spreadsheets, sturen mails namens jou en plannen afspraken. Zo bespaar je tijd, zijn ze praktisch ondersteunend en vooral productiegericht.
Waar het nog spannender wordt, is wanneer techbedrijven ons doen geloven dat deze nieuwe AI-agenten menselijk zijn in hun denken en redeneren. Dat klinkt goed, maar zoals Volkskrant-journalist Laurens Verhagen treffend opmerkte: ‘het is vooral een staaltje briljante marketing’. James O’Donnell van MIT Technology Review ziet een gevaar wanneer de tool-based agenten fuseren met die ogenschijnlijk menselijke agenten, die we simulatie-gebaseerd noemen. Daartegen zeg je: gedraag je als een journalist, bioloog of leraar. Volgens O’Donnell zullen de twee uiteindelijk samensmelten in een nieuw soort AI-software, dat niet alleen je persoonlijkheid of identiteit nabootst, maar ook digitaal op pad gaat om namens jou (of sterker nog: als jou) te handelen.
Hoe dit ook in de offline wereld kan uitpakken, illustreert onderzoeksjournalist Evan Ratliffe zowel hilarisch als beangstigend in zijn podcast The Shell Game. Daarin volg je de AI-kloon van zijn stem die, gekoppeld aan ChatGPT, zelfstandig telefoongesprekken voert met zijn vrouw, helpdesks en oplichters.
Waarom je deze agenten niet kunt vertrouwen
Casey Newton van technieuwsbrief Platformer waarschuwt voor de gevaren en risico’s die ook Ratliffe in zijn podcast aantoont: AI-agenten handelen niet altijd zoals we willen of verwachten. Wie is er aansprakelijk als je AI-agent fouten maakt? Wat gebeurt er met de data die deze verzamelt? De vroege AI-agent Recall van Microsoft maakte screenshots van alles wat je deed op je computer… geen goed idee.
Belangrijke criteria voor gebruik van AI-agenten door journalisten gaan over transparantie en controleerbaarheid: hoe waarborg je kwaliteit en betrouwbaarheid wanneer AI-agenten namens jou het werk doen? Prima als je een agent 10 experts laat voorbellen om te checken of ze vanavond nog in je talkshow kunnen aanschuiven. Maar op basis waarvan bepaalt dan zo’n agent of de expert echt geschikt is? ‘Which model would you trust to act on your behalf?’ vraagt Mairéad Pratschke, professor Digital Education aan de Universiteit van Manchester. Ze wijst hierbij op de onlangs aangetoonde ideologische uitgangspunten van verschillende taalmodellen: ‘Wanneer we overgaan van het stadium van eenvoudigweg output genereren naar het creëren van agenten die taken voor ons uitvoeren, maar zonder noodzakelijkerwijs in te checken wanneer ze beslissingen nemen, is meer dan een beetje beangstigend.’
Breid AI-richtlijnen uit voor agenten
Agenten lijken net als chatbots indrukwekkend capabel in het uitvoeren van afgebakende taken. Al zoeken ze redelijk autonoom dingen voor je uit, ze missen het oordeelsvermogen en morele kompas dat menselijke journalisten (hopelijk) wel bezitten. Je kunt een AI-agent niet vragen om iets ‘aan te voelen’ of om nieuwswaardigheid of kansen in te schatten. Onze finesse en intuïtie is gewoonweg niet te veruitwendigen naar softwarematige systemen.
Dus Emma, enige bezorgdheid is hier wederom op zijn plaats. Niet omdat de AI-agenten per definitie slecht zijn, maar omdat we dienen te definiëren welk type agent we willen gebruiken in ons journalistieke proces. En waar en wat we mogen en willen uitbesteden. Want wie help je precies wanneer een AI-agent namens jou een samenvatting van je video-item genereert en deze automatisch post op BlueSky? Laat AI-agenten prima een aantal taken uitvoeren, maar laten wij journalisten toch vooral kwaliteit en waarde van ons werk beoordelen.
Soms belt Kiki me op om te vragen hoe het me gaat of om me te vertellen wat het publiek van mijn lezing vond. Ook nodigt ze me uit voor een nieuwjaarsborrel en vraagt of ik nog leuke weekend-wegtips heb voor Arnhem. Daar heb ik haar nooit om gevraagd, maar het zijn wel precies de redenen waarom ik mijn human agent zo waardeer. Laat je verrassen door mensen, niet door technologie!
Tips
Nele Goutier noemde het in haar Villamedia Nieuwsbrief AI_mediajournaal: Bouw zelf je AI-agent in 20 minuten.
Nog meer visionaire AI-agent ideeën? Check dan deze video van AI-browser bouwer Arc.
Laurens Vreekamp is oprichter van de Future Journalism Today Academy en mentor bij het Stimuleringsfonds voor de Journalistiek.
Heb je een vraag voor Laurens? Mail!


Praat mee