NIEUWSARTIKEL

Zo werkt risicomanagement voor Artificial Intelligence

Geplaatst op 27-08-2025  -  Categorie: Nieuws  -  Auteur: L2P

risicomanagement-ai-600-x-300-px-1

Zo werkt risicomanagement voor AI

“Kort nadat de eerste auto's op de weg waren, vond het eerste auto-ongeluk plaats. Maar we verboden auto’s niet - we voerden snelheidslimieten, veiligheidsnormen, rijbewijzen, wetten tegen rijden onder invloed en andere verkeersregels in." Deze vergelijking maakte Bill Gates eens in reactie op de discussie over de risico's van Artificial Intelligence (AI).

De gedachtegang van Gates is voor velen van ons aansprekend. We voorzien dat AI niet meer weggaat, en de opgave is nu om de negatieve neveneffecten tegen te gaan. Want naast dat AI veel kansen biedt voor organisaties, brengt het ook nieuwe risico’s met zich mee, zoals bias, privacyvraagstukken, hallucinaties en onvoorziene effecten van snel evoluerende systemen.

Risico’s en basisprincipes

Een goed risicomanagement begint met het inventariseren van de gegevens die een AI-systeem verwerkt, wie toegang heeft en welke wet- en regelgeving van toepassing is. Specifiek voor AI spelen extra uitdagingen, zoals het gebruik van onjuiste input (“garbage in, garbage out”), auteursrechtelijke kwesties bij trainingsdata en onvoorspelbare output.
Belangrijke basisprincipes zijn: weten welke data wordt gebruikt, rechtmatigheid en representativiteit van trainingsdata controleren, medewerkers bewust maken van risico’s, en AI-gebruik regelmatig evalueren

De AI-verordening

Sinds augustus 2024 geldt de Europese AI-verordening. Deze maakt onderscheid tussen:

  • Onaanvaardbaar risico (bijvoorbeeld sociale scoring, emotieherkenning op werk/onderwijs) – verboden sinds februari 2025.
  • Hoog risico (o.a. AI in onderwijs en recruitment) – onderworpen aan strikte regels vanaf augustus 2026.
  • Beperkt risico – met specifieke transparantie-eisen, zoals duidelijk maken wanneer iemand met een chatbot of AI-gegenereerde content te maken heeft.

Voor hoog-risico AI zijn conformiteitsbeoordelingen verplicht, naast bestaande verplichtingen zoals DPIA’s. Voor publieke instanties en aanbieders van publieke diensten is bovendien een FRIA verplicht. Daarnaast geldt sinds februari 2025 dat organisaties moeten zorgen voor voldoende AI-geletterdheid bij medewerkers.

Zes thema’s voor organisaties

Voor het risicomanagement rond AI is aandacht nodig voor de volgende zes thema's:

  1. Governance – strategie, rollen en procedures vastleggen.
  2. Classificatie – AI-systemen inventariseren en juridisch kader bepalen.
  3. Leveranciersmanagement – naleving door aanbieders en toeleveranciers borgen.
  4. Risicoanalyse en mitigatie – risico’s in kaart brengen en beheersmaatregelen uitvoeren (DPIA/FRIA).
  5. Monitoring – evaluaties, audits en incidentafhandeling organiseren.
  6. Opleiding en training – investeren in AI-geletterdheid en bewustwording.

Meer informatie

Een nieuw whitepaper van L2P geeft een overzicht van de belangrijkste risico's én de oplossingsrichtingen. De publicatie is speciaal gemaakt voor professionals die zich bezighouden met privacy, informatiebeveiliging, risicomanagement en/of compliance.

Het whitepaper benadrukt dat risicomanagement rond AI niet wezenlijk verschilt van andere ICT-toepassingen, maar dat de snelle ontwikkeling, de specifieke risico’s en de komst van de AI-verordening organisaties voor nieuwe uitdagingen stellen. Door systematisch met governance, classificatie en continue monitoring aan de slag te gaan, kan AI verantwoord en effectief worden ingezet.

Meer lezen? Download het whitepaper met de knop hieronder.

Download whitepaper