Rechter beslist in voordeel AI-bedrijf Anthropic: taalmodel trainen met legaal verkregen boeken ‘fair use’
In de Verenigde Staten heeft een federale rechter in een auteursrechtenzaak tegen Anthropic in het voordeel van het AI-bedrijf beslist. Anthropic is bekend van de Claude AI-chatbot en is opgericht door mensen die eerst voor OpenAI werkten. Centraal stonden fysieke boeken die Anthropic had gekocht en gedigitaliseerd om hun model mee te trainen. Dat valt volgens de rechter onder fair use - een juridisch concept dat in Nederland niet bestaat.
Drie auteurs klaagden Anthropic in augustus vorig jaar aan voor piraterij van hun werk, veelal meerdere boeken die ze hadden geschreven. Uit de tekst van de uitspraak [.pdf] blijkt dat Anthropic miljoenen uitgaf aan veelal tweedehandsedities, de boekrug eraf haalde en de losse pagina’s inscande tot een pdf die door een computer gelezen kon worden. Het papieren origineel werd daarna weggegooid. Dat is allemaal toegestaan, als legitieme eigenaar van het boek, stelt de rechter.
AI-bedrijf Anthropic heeft een omzet van 1 miljard dollar, via abonnees die betalen om Claude te kunnen gebruiken als schrijf- of programmeerhulp.
Bulkverzameling
Bij het verzamelen van trainingdata harkte Anthropic ook internetbronnen bijeen, zoals boekrecensies, wetenschappelijke werken en blogposts op internet. De boeken en dit andere materiaal werden volgens Anthropic echter zelden integraal gebruikt voor training: Het bedrijf stelde volgens eigen zeggen een “data mix” samen van tekstelementen voor een optimale traning.
De auteurs zeggen dat duidelijk is dat hun werk daarin prominent figureerde, vanwege hun creatieve woordgebruik. Anthropic ontkent dat hun werk individueel kan worden gereproduceerd of getraceerd.
Anthropic legt uit wat er met een eenmaal gedigitaliseerd boek gebeurde: na selectie van een werk werden daaruit zaken als paginanummering, headers en footers verwijderd, werden vervoegingen versimpeld en woorden statistisch gerangschikt. Deze opgeschoonde en ‘gecomprimeerde’ versie van werk diende uiteindelijk ter training. “Verder dan dit reikten de trainingskopieën niet naar de buitenwereld”, aldus Anthropic.
De Claude-chatbot zou volgens Anthropic dus niet in staat zijn het originele werk te reproduceren, als het daarom gevraagd wordt. Anthropic erkent: “Zeker, Claude zou minder vaardige schrijvers kunnen helpen om werk te produceren dat net zo goed geschreven is als die van de auteurs - en hen beconcurreren in hetzelfde veld. Maar Claude maakte geen exacte kopie, geen substantiële kopie. Niets van het originele werk van de auteurs is traceerbaar.”
Fair use
Anthropic stelt dat de auteurs niemand kan verbieden om hun werken te gebruiken om te leren lezen en schrijven - een metafoor die de klagende partijen zelf hanteerden, red. - en een vergoeding is alleen billijk om in eerste instantie toegang te krijgen tot teksten.
“Het is ondenkbaar iemand elke keer bij herlezing opnieuw te laten betalen, elke keer dat ze het zich herinneren of de lessen eruit toepassen wanneer ze zelf iets nieuws schrijven”, aldus het AI-bedrijf. “Al honderden jaren lezen en hérlezen we boeken. De brede thema’s erin bewonderen we, leren we uit het hoofd en ideeën maken we ons eigen. Stilistische keuzes passen we toe bij eigen schrijfwerk.”
Niets van de creatieve essentie of zelfs unieke expressieve stijl van de auteurs is terug te vinden in de output van Claude, stelt Anthropic. “Ervan uitgaand dat zoiets auteursrechtelijk beschermd kan worden”, aldus het verweer.
Jurist en Harvard-docent Alejandra Caraballo zegt op Bluesky dat, hoewel deze uitspraak iets wezenlijks heeft bepaald rondom fair use van legaal verkregen materiaal, dat omgekeerd ook implicaties heeft. Het betekent dat AI-bedrijven die hun modellen trainden met materiaal dat zonder toestemming of vergoeding bij elkaar werd geharkt, nu potentieel juridisch aansprakelijk zijn.
This presents a massive liability for AI companies still who often scraped millions of documents, videos, images etc. without authorization. So the precedent this sets here in this lawsuit is that when lawfully acquired, training AI models on copyrighted material is fair use.
— Alejandra Caraballo (@esqueer.net) June 24, 2025 at 4:59 PM
Anthropic: “Kortgezegd: het doel en de wijze waarop auteursrechtelijk beschermde werken zijn gebruikt om taalmodellen te trainen om nieuwe teksten te genereren is bij uitstek transformatief. Zoals elke lezer die schrijfambities heeft zijn de taalmodellen van Anthropic niet getraind om die werken rechts in te halen en te vervangen, maar om een scherpe bocht te kunnen nemen om iets anders te maken.”
De Amerikaanse wetgeving beschermt niet concepten, principes of hoe een werk wordt gemaakt - alleen het eindresultaat, aldus Anthropic.
Rechter Alsup volgt het bedrijf met een verwijzing naar onderwijs: “Het is niet anders dan wanneer de auteurs zouden hebben geklaagd dat schoolkinderen met hun werk tot betere schrijvers worden gemaakt. [..] De auteursrechtenwet is er om originele werken te beschermen, niet om auteurs tegen concurrentie te beschermen.” Het gebruik en transformatie van auteursrechtelijk beschermde werken valt wat hem betreft onder fair use.
Omdat Anthropic eerder bekende dat het in het verleden ook illegaal verkregen digitale boekenverzamelingen heeft gebruikt, oordeelde Alsup dat het bedrijf zich daarvoor in een losse rechtszaak moet verantwoorden.


Praat mee