Skip to main content

Artikel

AI in het bedrijfsleven: Vier aandachtspunten voor risicomanagers

Verken belangrijke overwegingen voor risicomanagers bij de adoptie van AI. Leer hoe je risico's kunt beheersen, naleving kunt waarborgen en de operationele efficiëntie in het bedrijf kunt verbeteren.

Kunstmatige intelligentie (AI) kent een rijke geschiedenis die teruggaat tot het midden van de twintigste eeuw, toen pioniers als Alan Turing en John McCarthy de basis legden voor machine learning en intelligente systemen. Sindsdien is AI geëvolueerd van eenvoudige, regelgebaseerde systemen naar complexe algoritmes die in staat zijn te leren van enorme hoeveelheden data. In Europa zijn de gevolgen van AI voor het bedrijfsleven aanzienlijk. Bedrijven zetten AI in om hun operationele efficiëntie te verhogen, de klantervaring te verbeteren en innovatie te stimuleren.

Tegelijkertijd brengt het gebruik van AI in het bedrijfsleven ook belangrijke aandachtspunten met zich mee, zoals gegevensbescherming, ethisch gebruik en naleving van regelgeving. Organisaties die AI-technologieën omarmen, moeten hun weg vinden binnen het complexe juridische kader van de EU, dat sterk inzet op transparantie, verantwoording en de bescherming van individuele rechten.

Om AI succesvol te implementeren en de bijbehorende risico’s te beheersen, kunnen organisaties verschillende stappen ondernemen, waaronder:

1. Duidelijk vaststellen wie verantwoordelijk is voor AI

Het risicobeheer rondom AI is binnen organisaties vaak niet eenduidig geregeld (zie figuur 1). De verantwoordelijkheid voor AI-gerelateerde risico’s is vaak verspreid over verschillende afdelingen, zoals IT, compliance en operations, zonder dat er duidelijk is wie uiteindelijk eindverantwoordelijk is. Dit gebrek aan helderheid kan leiden tot gefragmenteerde communicatie, waarbij teams verschillende prioriteiten hebben of onvoldoende samenwerken.

Wie is de primaire eigenaar van AI-risico in jouw organisatie?

Bron: Airmic (peiling onder Airmic-leden op 27 augustus 2024).

 

Om deze uitdagingen aan te pakken, moeten risicomanagers eigenaarschap en verantwoordelijkheid voor AI-risico's duidelijk vastleggen. Dit kan worden gerealiseerd door een multidisciplinair AI-governanceteam op te richten, met vertegenwoordigers van alle relevante afdelingen. Zo worden verschillende perspectieven meegenomen in het besluitvormingsproces.

2. Evalueren van de potentiële risico’s van AI

Het is essentieel om de risico’s te onderkennen die gepaard gaan met de implementatie van AI, waaronder:

  • Het niet naleven van regelgeving (waaronder wetgeving rond gegevensbescherming)
  • Algoritmische bias
  • Hallucinaties

Organisaties moeten begrijpen welk effect AI heeft op hun risicoprofiel. Zo kan de afhankelijkheid van grote datasets voor het trainen van AI-modellen het risico op schending van privacywetgeving vergroten, vooral wanneer gevoelige informatie verkeerd wordt behandeld of onvoldoende is beveiligd.

Daarnaast kan algoritmische bias leiden tot oneerlijke of discriminerende uitkomsten, met reputatieschade of juridische gevolgen als mogelijk resultaat. Ook het risico op niet-naleving van wet- en regelgeving neemt toe, zeker in regio’s met strenge gegevensbeschermingsregels, zoals de EU. De veranderingen die AI met zich meebrengt vragen dan ook om een grondige herziening van het bestaande risicomanagementbeleid, om de unieke uitdagingen van deze technologie goed te kunnen adresseren.

Om de risico’s van AI effectief te beperken en – waar mogelijk – over te dragen, moeten risicomanagers eerst een grondige AI-risicoanalyse uitvoeren. Deze moet onder meer ingaan op dataverwerking, algoritmische eerlijkheid en naleving van regelgeving. Vervolgens is het van belang te evalueren wat deze risico’s betekenen voor de bestaande verzekeringsportefeuille, en of de dekking en limieten toereikend zijn. Resterende risico’s kunnen mogelijk via verzekering worden overgedragen. Door AI-risico’s proactief aan te pakken, kunnen risicomanagers hun organisatie helpen optimaal te profiteren van AI, met minimale negatieve gevolgen.

3. Implementeren van AI-trainingsprogramma’s en een communicatiestrategie

Een uitgebreid trainings- en communicatieprogramma is essentieel om de voordelen en beoogde resultaten van AI-initiatieven duidelijk over te brengen, én om medewerkers uit te rusten met de vaardigheden die nodig zijn om effectief samen te werken met AI-systemen. Daarnaast maken feedbackmechanismen een continue dialoog en bijsturing mogelijk tussen risicomanagement en de rest van de organisatie.

Gebrek aan training en communicatie kan AI-initiatieven ondermijnen doordat het verwarring, weerstand en een gebrek aan betrokkenheid onder medewerkers veroorzaakt. Als medewerkers niet goed geïnformeerd zijn over het doel van AI, kunnen zij het gaan zien als een bedreiging voor hun baan in plaats van als een kans. En als zij niet weten hoe ze AI moeten gebruiken, kunnen ze terugvallen op verouderde werkwijzen, wat leidt tot inefficiëntie en gemiste innovatiekansen.

Een goed doordacht, afdelingsoverstijgend trainings- en communicatieprogramma moet medewerkers voorzien van de kennis en vaardigheden die nodig zijn om te gedijen in een werkomgeving die wordt ondersteund door AI. Zo’n programma moet onder meer introductiesessies bevatten waarin de basisprincipes van AI worden uitgelegd, de toepassingen binnen de organisatie worden toegelicht, en wordt aangegeven welk concreet voordeel AI voor hun specifieke functie oplevert.

4. Het monitoren van de impact van AI

Het opstellen van meetbare indicatoren om de impact van kunstmatige intelligentie binnen een organisatie te volgen, is essentieel om de effectiviteit te beoordelen en onderbouwde beslissingen te nemen, met inachtneming van de Europese regelgeving rond gegevensbescherming en ethisch AI-gebruik.

Het evalueren van het gebruik en de efficiëntie van AI is cruciaal om te waarborgen dat deze technologieën daadwerkelijk de beoogde voordelen opleveren én voldoen aan de geldende wet- en regelgeving.

Zonder goede evaluatie loopt een organisatie het risico AI-systemen in te zetten die niet bijdragen aan de bedrijfsdoelstellingen of geen rendement opleveren. Zo kan bijvoorbeeld een AI-gestuurde klantenservicechatbot bedoeld zijn om de gebruikerservaring te verbeteren. Maar als deze niet goed is getraind of onvoldoende wordt gemonitord, kan dit juist leiden tot frustratie en ontevredenheid bij klanten – met reputatieschade als gevolg. Bovendien kan het ontbreken van een beoordeling van de prestaties van AI-algoritmes ertoe leiden dat bestaande vooroordelen worden versterkt of dat beslissingen worden genomen op basis van verouderde data, met ethische en mogelijk juridische gevolgen.

Voordat een robuust monitoringsprogramma voor AI-initiatieven wordt opgezet, moeten organisaties eerst duidelijke KPI’s (kritieke prestatie-indicatoren) definiëren die aansluiten bij hun strategische doelstellingen. Mogelijke KPI’s zijn:

  • Nauwkeurigheidspercentages van AI-voorspellingen
  • Gebruikerstevredenheidsscores
  • Responstijden van AI-gestuurde diensten
  • Nalevingsindicatoren met betrekking tot gegevensbescherming en ethisch gebruik van AI

Risicomanagers kunnen vervolgens samenwerken met data-analisten en IT-teams om een raamwerk op te stellen voor gegevensverzameling en -analyse waarmee het monitoringsprogramma wordt ondersteund. Dit raamwerk moet voorzien in regelmatige rapportages, bijvoorbeeld maandelijks of per kwartaal, om de prestaties van AI-diensten af te zetten tegen de gestelde KPI’s. Risicomanagers doen er ook goed aan te pleiten voor feedbackloops waarmee continue verbetering mogelijk wordt op basis van de inzichten uit de monitoring.

AI benutten en risico’s beheersen

Risicomanagers moeten de kans grijpen om hun organisatie te begeleiden in de transformatieve reis die AI met zich meebrengt, inclusief de voordelen die dit kan opleveren voor zowel het bedrijfsleven als de samenleving. Door een AI-governanceframework op te zetten, potentiële risico’s te onderkennen, medewerkers te trainen en prestatie-indicatoren te monitoren, kunnen zij de bijbehorende uitdagingen effectief beheersen en risico’s beperken op het gebied van gegevensbescherming, algoritmische bias en naleving van regelgeving.

Wilt u meer weten over hoe u uw organisatie kunt beschermen tegen AI-gerelateerde risico’s? Neem dan contact op met een vertegenwoordiger van Marsh.