Advocaten krijgen waarschuwing na verkeerd gebruik van AI: dit zegt het over verantwoord AI-gebruik

Volgens de berichtgeving van de NOS gebruikten advocaten AI-tools voor het opstellen van juridische documenten. Daarbij werden echter bronnen en uitspraken aangehaald die niet bleken te bestaan.

Nick foto
2 minuten leestijd

Het verkeerd gebruik van AI is geen theoretisch risico meer. Dat blijkt uit een recent bericht van de NOS, waarin advocaten een officiële waarschuwing kregen en verplicht op cursus moeten na onjuist gebruik van kunstmatige intelligentie. De kern? Juridische stukken bleken gebaseerd op AI-gegenereerde informatie die feitelijk onjuist was. En dat heeft gevolgen. Maar wat betekent dit voor organisaties die AI inzetten? En belangrijker nog: hoe voorkom je dat innovatie omslaat in reputatieschade?

Wat ging er mis bij het gebruik van AI?

Volgens de berichtgeving gebruikten advocaten AI-tools voor het opstellen van juridische documenten. Daarbij werden echter bronnen en uitspraken aangehaald die niet bleken te bestaan. Dat is precies waar het mis kan gaan bij verkeerd gebruik van AI: systemen kunnen overtuigend klinkende informatie genereren die feitelijk onjuist is.

Zonder controlemechanisme ontstaat er dan een risico. Zeker in sectoren zoals de advocatuur, overheid en zorg, waar zorgvuldigheid cruciaal is.

Verkeerd gebruik van AI is geen technologieprobleem

Veel organisaties denken dat dit een technisch falen is. Dat is het niet. AI doet wat het moet doen: patronen herkennen en tekst genereren. Het probleem ontstaat wanneer er geen visie, beleid en controleproces is ingericht. Met andere woorden: AI zonder governance is een risico. En precies daar gaat het vaak mis. AI wordt ingezet als handige tool, maar niet geïntegreerd in processen, verantwoordelijkheden en kwaliteitscontroles.

Waarom dit een wake-up call is voor organisaties

De waarschuwing aan deze advocaten laat zien dat verkeerd gebruik van AI directe professionele gevolgen kan hebben. Niet alleen reputatieschade, maar ook tuchtrechtelijke maatregelen en verplichte scholing. Dat maakt dit nieuws relevant voor iedere organisatie die met AI werkt. Want wat in de advocatuur gebeurt, kan net zo goed plaatsvinden binnen marketing, HR, onderwijs, finance of de overheid.

AI wordt steeds vaker ingezet voor het schrijven van teksten, analyseren van data en voorbereiden van besluitvorming. Dat levert snelheid op. Echter, snelheid zonder controle vergroot risico’s. Daarnaast neemt toezicht toe. Zowel brancheorganisaties als wetgevers kijken kritischer naar hoe AI wordt gebruikt. Met de komst van Europese AI-regelgeving wordt verantwoord AI-gebruik bovendien geen keuze meer, maar een verplichting. Kortom: experimenteren zonder beleid is geen strategie.

Wat verstaan we onder verkeerd gebruik van AI?

Verkeerd gebruik van AI betekent niet dat je AI inzet. Het betekent dat je het inzet zonder duidelijke kaders. Dat kan zich uiten in:

  • Het overnemen van AI-output zonder menselijke controle

  • Het gebruiken van AI voor gevoelige of vertrouwelijke informatie zonder beleid

  • Het ontbreken van richtlijnen voor bronverificatie

  • Onvoldoende kennis over beperkingen en risico’s

AI-systemen genereren namelijk plausibele antwoorden, geen gegarandeerde waarheden. Dat verschil is cruciaal. Zeker in sectoren waar betrouwbaarheid essentieel is, zoals de juridische sector, zorg en overheid, moet AI altijd ondersteunend zijn en nooit leidend zonder controle.

Wat kun je vandaag al doen?

Wil je verkeerd gebruik van AI voorkomen? Dan kun je direct drie stappen zetten:

  1. Inventariseer hoe AI nu wordt gebruikt binnen je organisatie.

  2. Stel tijdelijke richtlijnen op voor controle en bronverificatie.

  3. Organiseer bewustwordingstrainingen voor medewerkers.

Daarnaast is het verstandig om strategisch te kijken naar de lange termijn. Want AI raakt niet alleen processen, maar ook besluitvorming, cultuur en leiderschap. En precies daar ligt het verschil tussen organisaties die achteraf moeten bijsturen en organisaties die vooroplopen.

Wil je weten of jouw organisatie risico loopt op verkeerd gebruik van AI? Of wil je AI juist strategisch en veilig inzetten? Plan een vrijblijvende kennismaking en ontdek waar jullie kansen én risico’s liggen.