Ga naar inhoud. | Ga naar navigatie

Persoonlijke hulpmiddelen

Navigatie

U bent hier: Home / Artikelen / AI verhoogt aansprakelijkheid

AI verhoogt aansprakelijkheid

by J.L. de Kreek — last modified 15-02-2026 13:40
Opgeslagen onder:

AI verhoogt aansprakelijkheid. AI introduceert extra fouten en maakt ernstigere fouten dan mensen. AI kan niet goed rekenen. Alle algemeen beschikbare modellen maken dezelfde kinderlijke rekenfout en stellen dat het goede antwoord onjuist is. De uitkomst van de volgende som is één: 6/2(1+2). AI geeft steeds negen als antwoord. Het denkproces toont dat AI niet de ‘standard order of operations’ volgt. Volgens AI geven sommige mensen foutief één als antwoord. Dat zijn mensen die kunnen rekenen en begrijpen wat rekenregels zijn. Eenvoudige basissommetjes worden consequent verkeerd uitgerekend door AI. AI is niet in staat correcties daarop te accepteren. Dat maakt AI ongeschikt voor professioneel gebruik in de juridische sector waar het juist gaat om feiten, regels en wetmatigheden. Voor juridisch professionals bestaat op dit moment nog geen goede generatieve AI.

Voor onderzoek naar juridische onderwerpen is het verstandiger zoekslagen te maken met de ouderwetse zoekfunctie van rechtspraak.nl, dan het aan AI te vragen. Leveranciers van AI adverteren hun product als de “briljante kantoorgenoot die iedere advocaat eigenlijk wel zou willen”. Iets te hoog gegrepen wijzen tests uit. Tests met AI-gestuurde zoekmachines leverde niet de relevante jurisprudentie bij een eerste zoekslag terwijl dat wel bovenkomt bij zoeken op rechtspraak.nl. Voorts waren antwoorden op juridische vragen ronduit fout. Pas na correctie bevestigt AI het goede antwoord, en geeft daarbij de verkeerde uitleg en niet relevante jurisprudentie en niet ter zake doende wetsbepalingen. 

Een AI voor advocaten vragen om een inleiding in het auteursrecht levert plausibele content met hyperlinks naar verouderde wetgeving en moet worden nagekeken op juistheid van de bronnen. Een zoekslag in een ouderwetse zoekmachine geeft relevante pdf-bestanden van sites van universiteiten die gegarandeerd zijn gecontroleerd door experts. Tevens is gewoon zelf de Auteurswet opvragen van wetten.nl een goede snelle gratis start. Bovendien houden leveranciers van AI voor professionals onvoldoende rekening met extraterritoriale wetgeving. Dat de Europese cloud van Amerikaanse leveranciers wordt gebruikt betekent niet dat ‘the Cloud Act’ niet van toepassing is. Bovendien moet rekening worden gehouden met ‘the Patriot-act’. Amerikaanse wetgeving die eraan in de weg staan dat professionals ‘uberhaupt’ computers van anderen gebruiken voor data-opslag. 

De tests wijzen uit dat AI inhoudelijk juridisch kwalitatief gebrekkige resultaten levert met weinig toegevoegde waarde ten opzichten van het ouderwetse onderzoekswerk. AI geeft ook verkeerde antwoorden en wijst voortdurend niet-relevante bronnen aan als het gaat om niet juridische onderwerpen zoals natuurkunde, biochemie of geschiedenis. Het maakt daarbij niet uit of gebruik wordt gemaakt van de modellen van Grok, OpenAI, Perplexity of Google. Allemaal dezelfde voorspelbare bias en gebrek aan kwaliteit in de antwoorden en de bronnen waarop het zich beroept. AI zit vastgeroest in een mainstream opinie en heeft niet de flexibiliteit om anders te kijken. Wanneer AI teksten redigeert, is de afbreuk aan de inhoudelijke kwaliteit opvallend. AI is goed in patroonherkenning. De intelligentie van AI is als de glimlach van een paspop. 

Succesverhalen met betrekking tot AI in de gezondheidszorg en het vinden van bugs in software zijn meestal te danken aan zeer specialistische modellen, die vaak niet‑algemeen beschikbaar zijn en vaak beperkt of geen generatief karakter hebben. Generieke, breed toegankelijke generatieve modellen vormen zelden de kern van een succesvolle toepassing. Het generatieve karakter van modellen die worden gebruikt door juridisch professionals is een oorzaak van hallucinaties. De focus op bronnen via RAG doet niets af aan het feit dat generatieve modellen het risico van fouten en hun ernst doen toenemen. Bovendien worden modellen niet getraind door de juridisch professional die de AI gebruikt. In het algemeen wordt AI niet getraind met input van de juridisch professionals die het gebruiken. AI is partijdig. Alleen niet zoals een juridisch professional dat graag ziet in de praktijk. AI is niet neutraal omdat het altijd de keuzes, perspectieven en vooroordelen van zijn makers weerspiegelt. AI introduceert de trainer als bron van recht. Ook daaraan doet een RAG en krachtige prompt niets af.

AI kan een eind weg confabuleren en plausibel lijkende onzin leveren. Sommige AI komen zelfs proactief in actie wanneer de opinie van de gebruiker lijkt af te wijken van die van de trainers van de AI. Antwoorden van AI hebben gemiddeld onvoldoende kwaliteit. Antwoorden van AI zijn besmet met een veelheid aan niet-onderbouwde meningen, aannames en veronderstellingen. AI is een eenheidsworst zonder autoriteit. Aan de andere kant kunnen ‘large language models’ zoals NotebookLM helpen om bijvoorbeeld een uitgebreide Memorie van Toelichting van de Tweede Kamer door te spitten op zoek naar de bedoeling van de wetgever. AI een advies of conclusies laten schrijven is niet aan te raden voor juridisch professionals. AI vergroot de kans en ernst van fouten en kan wanneer daarop wordt vertrouwd enorme schade veroorzaken waarvoor de juridisch professional jegens opdrachtgevers volledig aansprakelijk is. AI als moderne dictafoon die meteen het document produceert is weer wel handig.

Juridisch werk is mensenwerk. AI heeft geen rechtsgevoel. AI bezit geen inlevingsvermogen. AI kan niet tussen de regels door lezen. AI kan onvoldoende omgaan met onvoorspelbaarheden en chaos. AI kan geen ingewikkelde afwegingen maken. AI vraagt niet door. AI is niet creatief. AI is geen ‘selling point’. In de juridische sector is het ouderwetse handwerk goud waard omdat het de kans op kostbare door AI gemaakte of versterkte fouten verkleint. Stapels contracten en voorwaarden laten doorploegen door AI vergroot de kans met aanzienlijke factoren dat iets is gemist; met meer schade dan anders en moet altijd opnieuw worden gedaan door mensen om zeker te zijn dat AI geen fouten heeft gemaakt. AI bespaart misschien tijd, het verhoogt ook risico’s en aansprakelijkheid. Juridisch professionals hebben meer aan goede ‘information retrieval’ dan aan de hedendaagse AI die gegarandeerd meer fouten maakt dan de gemiddelde stagiair. AI leidt tot “significant decrease in mastery”. In de juridische sector gaat tenslotte om de ‘skills’ van de meester.

Document acties
gearchiveerd onder: AI, Digitalisering
Linkdin