Privacyverklaring

Risicobeheer voor AI-applicaties: het verdedigen van waardecreatie in tijden van Generative AI

18 november 2024
Tekst
Partner Content AI For Finance

Artificiële Intelligentie (AI) is het afgelopen jaar een van de meest besproken technologieën in het bedrijfsleven. Veel mensen zijn enthousiast over de mogelijkheden van deze technologie, maar er blijft twijfel over de daadwerkelijke waarde die AI biedt. In dit artikel beargumenteer ik drie kernpunten: (1) AI is waardevol en biedt oplossingen voor complexe problemen, (2) AI creëert ook nieuwe risico's, en (3) om deze risico's effectief te beheren, moeten bedrijven deze risico's identificeren, meten en controleren.

AI is waardevol

Hoewel sommige sceptici AI beschouwen als beperkt tot eenvoudige problemen, bewijst het veld dat AI veel breder inzetbaar is. Een sterk voorbeeld hiervan is het AI-systeem AlphaFold van Google DeepMind, dat de 3D-structuur van moleculen kan voorspellen. Dit systeem heeft de wetenschap vooruitgeholpen door wetenschappers te ondersteunen bij het onderzoeken van ziekten, milieu-impact en chemische innovaties. AlphaFold heeft naar schatting een miljard jaar aan onderzoekstijd bespaard en heeft meer dan 600.000 wetenschappers geholpen. Dit soort AI-systemen kan een enorme impact hebben op de samenleving en illustreert de onmiskenbare waarde van AI.

AI brengt nieuwe risico's

De ontwikkeling van AI brengt een reeks nieuwe risico’s met zich mee. Bedrijven moeten zich bewust zijn van deze risico’s om ze succesvol te kunnen beheren. De risico’s kunnen gegroepeerd worden in drie categorieën.

Operationele risico's ontstaan bij het ontwikkelen en exploiteren van een AI-systeem. Zo kunnen AI-systemen bijvoorbeeld leiden tot datalekken die dan vervolgens kunnen leiden tot reputatie schade of druk vanuit de regelgever.

Risico's van derde partijen komen voort uit samenwerking met partners die AI-systemen gebruiken. Leveranciers, aannemers en dienstverleners kunnen AI-diensten gebruiken om hun activiteiten uit te voeren. Als hun AI-systeem faalt, kan dit verregaande gevolgen hebben voor de onderneming die op deze diensten vertrouwd.

Maatschappelijke risico’s ontstaan uit het feit dat onze samenleving en de bredere wereld toegang hebben tot AI-systemen. De verwachtingen en levenspatronen van onze samenleving zullen, met de inburgering van AI, veranderen en bedrijven zullen daar rekening mee moeten houden.

Aangezien AI waardevol is, kunnen bedrijven de technologie niet negeren. Doen ze dat wel, dan lopen ze het risico achter te blijven ten opzichte van concurrenten die de technologie wel oppikken. Toch moeten bedrijven, gezien de nieuwe risico's die met AI gepaard gaan, voorbereid zijn om deze technologie zorgvuldig te beheren. Anders lopen ze het risico geen voordeel te behalen of zelfs hun bedrijf schade toe te brengen. Laten we eens kijken hoe we de nieuwe risico's, die AI met zich meebrengt, succesvol kunnen aanpakken.

AI-risico's beheren: identificeren, meten en controleren

Om AI-risico’s effectief te beheren, moeten bedrijven capaciteiten ontwikkelen waarmee ze risico’s gedurende de hele levenscyclus kunnen identificeren, meten en controleren.

Identificeren: Het risicobeheer begint met het vaststellen van welke risico’s relevant zijn voor de specifieke use-case. Hierin wordt rekening gehouden met potentiële risico’s die voortkomen uit de ontwerp- en implementatiekeuzes. De risico’s moeten vervolgens continu worden gemonitord om te waarborgen dat de context niet verandert op een manier die nieuwe risico’s introduceert.

Meten: Eerst worden risico’s op een breed niveau ingeschat. Naarmate de use-case zich verder ontwikkelt, worden deze inschattingen verfijnder en specifieker. Dit omvat het verzamelen van meetbare data door middel van bijvoorbeeld technische testen en gebruikersfeedback. Uiteindelijk vindt er een nauwgezette monitoring van verschillende risicofactoren plaats om de effectiviteit en veiligheid van de use-case te waarborgen.

Controleren: Bij het controleren van risico’s moeten er beslissingen worden genomen om deze te beperken, over te dragen, te vermijden of te accepteren. Dit houdt in dat de scope en planning van de toepassing worden bepaald en de nodige maatregelen en meetmethoden worden geïmplementeerd. Naarmate de toepassing vordert, worden beslissingen over mogelijke aanpassingen en koerswijzigingen regelmatig heroverwogen op basis van de actuele risicobeoordeling.

Conclusie

Artificiële Intelligentie (AI) heeft de afgelopen jaren enorm veel aandacht gekregen. Dit artikel stelt dat dit terecht is. AI heeft bewezen een technologie te zijn die complexe problemen kan oplossen en daardoor op nieuwe manieren waarde kan brengen aan individuen, bedrijven en de samenleving. Aan de andere kant introduceert AI ook nieuwe uitdagingen door het creëren van nieuwe risico's. Deze risico's bestaan wanneer bedrijven AI-systemen ontwikkelen en exploiteren, wanneer ze samenwerken met partijen die dit doen, of kunnen voortkomen uit een veranderende samenleving die ook toegang heeft tot deze nieuwe technologie. Om deze risico's effectief te beheersen, moeten bedrijven organisatorische capaciteiten ontwikkelen om risico's te identificeren, meten en controleren. Deze stappen moeten door de hele AI-levenscyclus worden toegepast. Door dit te doen, kunnen bedrijven de risico's duidelijk in overweging nemen en waardecreatie door AI verzekeren.

Meer in het topic: