AI als organisatie- en aansprakelijkheidsvraagstuk

March 31, 2026 5 minuten

AI als organisatie- en aansprakelijkheidsvraagstuk

Artikel van: Sanne Bonnerman
test

AI wordt razendsnel onderdeel van besluitvorming. Maar wie is verantwoordelijk als het misgaat? In deze blog laat Sanne Bonnerman zien waarom AI geen IT‑vraagstuk is, maar een organisatie‑ en aansprakelijkheidsrisico dat bestuurders niet kunnen negeren.

Vijf aandachtspunten bij de inzet van AI in uw organisatie

In gesprekken met organisaties zie ik hoe snel AI onderdeel wordt van kritische processen. Wat begint als ondersteuning bij analyse, planning of communicatie, groeit vaak ongemerkt uit tot een vast onderdeel van besluitvorming. En juist op dat punt merk ik dat vragen over governance, risicobeheersing en aansprakelijkheid achterblijven. De technologie ontwikkelt zich razendsnel, maar het gesprek over verantwoordelijkheid en risico-ontwikkeling loopt daar niet altijd in mee.

Wat daarbij opvalt, is dat AI gerelateerde incidenten zelden het gevolg zijn van een technische fout. In vrijwel alle gevallen die ik tegenkom, is schade ontstaan doordat organisaties vertrouwen op AI output zonder volledig inzicht te hebben in de impact, de mogelijke gevolgen en de verantwoordelijkheden die daarbij horen. Dat maakt AI geen IT vraagstuk, maar een bestuurlijk, operationeel en financieel risico.

AI verandert de aard van besluitvorming

Waar traditionele automatisering werkt met vaste regels, werkt AI met probabilistische modellen. De output oogt overtuigend en consistent, maar is niet per definitie juist, volledig of uitlegbaar. In de praktijk zie ik dat dit de aard van besluitvorming verandert:

  • aanbevelingen krijgen een normerend karakter;
  • uitzonderingen verdwijnen uit beeld;
  • menselijke controle wordt procedureel in plaats van inhoudelijk.

Die verschuiving gebeurt zelden expliciet. Formeel blijft de mens de beslisser, maar feitelijk bepaalt AI steeds vaker de richting. Dat maakt het lastig om achteraf vast te stellen waar een besluit is genomen, op basis waarvan en door wie.

Quote icon

“AI-gerelateerde incidenten zijn zelden het gevolg van een technische fout. Schade ontstaat meestal doordat organisaties vertrouwen op AI-output zonder volledig inzicht te hebben in de impact, de gevolgen en de verantwoordelijkheden die daarmee gepaard gaan.”

Sanne Bonnerman
Risk Management Consultant

Hallucinaties: wanneer AI overtuigt, maar niet klopt

Een specifiek risico dat we bij moderne AI systemen zien, is de zogenoemde hallucinatie: output die logisch, consistent en professioneel oogt, maar feitelijk onjuist of onvolledig is. Wat vaak wordt onderschat, is dat dit niet alleen speelt bij tekst. Ook bij classificatie, samenvatting, prioritering en risicoschatting kan AI structureel de verkeerde kant op sturen.

Dat risico wordt groter naarmate AI output wordt opgenomen in bestaande processen. Ik zie regelmatig dat output rechtstreeks terechtkomt in dashboards, dossiers of werkstromen en daarmee dezelfde status krijgt als andere informatiebronnen. Medewerkers ervaren de output niet als advies van een extern systeem, maar als regulier besluitvormingsmateriaal.

In zulke situaties blijkt menselijke controle vaak onvoldoende. Niet omdat controle ontbreekt, maar omdat zij verschuift van inhoudelijke toetsing naar procesmatige bevestiging. De vraag wordt dan niet meer “klopt dit?”, maar “is dit volgens de juiste procedure tot stand gekomen?” Zeker wanneer meerdere schakels in een keten vertrouwen op dezelfde AI output, wordt die output zelden opnieuw inhoudelijk bevraagd.

Op die manier kunnen AI systemen langere tijd foutieve of onvolledige output blijven genereren die:

  • consistent wordt herhaald;
  • logisch aansluit bij eerdere uitkomsten;
  • en daardoor als betrouwbaar wordt ervaren.

Omdat deze output wordt overgenomen in vervolgprocessen, bijvoorbeeld door andere teams of afdelingen, ontstaat een keteneffect. Iedere volgende stap gaat uit van dezelfde onjuiste aanname, terwijl betrokkenen ervan uitgaan dat controle elders al heeft plaatsgevonden. Pas wanneer afwijkingen zich opstapelen – in de vorm van verkeerde beslissingen, klachten of externe signalen – wordt zichtbaar dat het systeem structureel anders stuurt dan bedoeld.
Het probleem zit daarmee niet in één fout antwoord, maar in het schaalbare en zelfversterkende karakter van hallucinaties. Foutieve aannames worden niet gecorrigeerd, maar juist gereproduceerd en doorgegeven. Correctie vindt vaak pas plaats wanneer de gevolgen zichtbaar worden, meestal buiten de context waarin de oorspronkelijke AI output is gegenereerd.

Dat maakt hallucinaties tot een organisatie  en aansprakelijkheidsrisico. Niet omdat fouten bestaan, maar omdat organisaties onvoldoende zicht hebben op:

  • wanneer AI output afwijkt van de werkelijkheid;
  • hoe lang die afwijking kan voortbestaan;
  • en in hoeverre menselijke controle in de praktijk tekortschiet.

Bias en discriminatie: objectieve systemen, maar ongelijke uitkomsten

AI systemen worden vaak gepresenteerd als objectiever dan menselijke besluitvorming. In de praktijk zie ik juist dat zij bestaande patronen uit trainingsdata overnemen. Dat kan leiden tot structurele benadeling van bepaalde groepen, zonder dat daar een expliciete intentie of directe zichtbaarheid bij hoort.

Voor organisaties betekent dit dat:

  • beslissingen objectief lijken, maar feitelijk scheef uitpakken;
  • de verantwoordelijkheid niet bij het systeem, maar bij de gebruiker ligt;
  • reputatie  en aansprakelijkheidsrisico’s ontstaan die lastig uitlegbaar zijn.

Organisaties kunnen zich dan niet beroepen op het feit dat “AI dit nou eenmaal zo heeft gegenereerd”, dit biedt excuus of uitweg. Juridisch en maatschappelijk blijft de verantwoordelijkheid in ieder geval liggen bij de organisatie of professional die het systeem inzet richting derden. Eventuele verantwoordelijkheden van leveranciers of ontwikkelaars doen daar niets aan af.

Van operationeel voordeel naar financiële blootstelling

AI gebruik heeft directe gevolgen voor de continuïteit, kwaliteit en betrouwbaarheid van processen. Zodra AI output leidend wordt in kritieke processen, ontstaat afhankelijkheid. De vraag die ik organisaties dan stel, is niet of er iets mis kan gaan, maar wat de impact is wanneer dat gebeurt. Zonder expliciete impactanalyse blijven:

  • verstoringen onderschat;
  • scenario’s niet doorgerekend;
  • financiële consequenties impliciet geaccepteerd.

Dat zie ik ook terug bij verzekerbaarheid. Bestaande verzekeringsprogramma’s sluiten lang niet altijd aan op AI gedreven risico’s, zeker wanneer schade voortkomt uit besluitvorming in plaats van een klassiek incident.

Aansprakelijkheid verandert niet mee met technologie

Hoewel AI systemen steeds autonomer lijken te opereren, verandert de juridische realiteit niet mee. Organisaties blijven verantwoordelijk voor de manier waarop zij AI inzetten en blijven aanspreekbaar voor schade die daaruit ontstaat. Complexiteit, automatisering of uitbesteding nemen die verantwoordelijkheid niet weg. De kernvraag die ik en mijn collega’s daarom blijven stellen is: ‘Waar landen de risico’s daadwerkelijk, en past dat binnen de risicobereidheid van uw organisatie? ‘

Wat is de impact van AI op uw organisatierisico’s?

AI vergroot niet alleen de snelheid en schaal van organisaties, maar ook de impact van fouten, aannames en blinde vlekken. Wie AI inzet zonder expliciete impact  en risicoanalyse, vergroot niet zozeer de efficiëntie, maar vooral het onzichtbare risico. In mijn ervaring zit het echte verschil in het moment waarop organisaties zich die vraag stellen: pas nadat het misgaat, of juist daarvoor.

ballon