AI: risico’s en regelgeving

Big data is de nieuwe olie en zij die hiertoe toegang hebben, hebben de macht. Men heeft echter niets aan grote hoeveelheden data indien men geen efficiënte dataverwerkingssystemen ter beschikking heeft. Dit is waar artificiële intelligentie (AI) in beeld komt. De opkomst van AI heeft onze maatschappij reeds op verschillende vlakken beïnvloed. In de meeste toestellen die wij heden ten dage gebruiken, zit AI ingebouwd (denk maar aan Netflix recommendations of personalised targeting via online advertenties). AI biedt de mogelijkheid van controle (over particulieren, ondernemingen, overheden, continenten), van gepersonaliseerde aanbiedingen en voorspellingen en biedt het perspectief van bovenmenselijke snelheid, efficiëntie en accuraatheid.

Anderzijds brengt AI ook ongekende risico’s met zich mee. Aan de basis van deze risico’s, liggen volgende oorzaken:

  • Connectiviteit: AI-systemen zijn meestal geen op zich staande entiteiten. Zij worden geconnecteerd met andere systemen. Door deze connectie wordt het geheel van systemen kwetsbaar. Bv.: een auto zonder enig AI-systeem kan niet worden gehacked. Een auto met AI-systeem kan wel worden gehacked. Cyberbeveiliging is dus een must bij AI-systemen.
  • Complexiteit: deze connectiviteit zorgt ervoor dat verschillende systemen elkaars werking beïnvloeden.
  • Openheid: AI-systemen ondergaan, nadat zij in gebruik zijn genomen, later vaak nog updates of upgrades en zijn vaak afhankelijk van latere input (van andere systemen of van gebruikers).
  • Autonomie: autonomie is vooral aanwezig bij data-gebaseerde AI. Deze AI-systemen vertrekken van startdata en leren vervolgens autonoom, zonder tussenkomst van de mens, op basis van ervaring. Dit leerproces is niet voorspelbaar en weinig inzichtelijk voor de mens.
  • Data-afhankelijkheid: dit kenmerk van AI-systemen duidt op het feit dat een AI-systeem maar zo kwalitatief is als de data die eraan worden toegevoegd. Data met een bias die worden gebruikt voor training van het AI-systeem, zullen steeds leiden tot output met een bias.
  • Black box probleem: alle bovenstaande kenmerken dragen bij tot het black box probleem. De werking van (complexe, data-gebaseerde) AI-systemen is weinig inzichtelijk voor de mens. Waarom een bepaald AI-systeem een bepaalde output genereert, is moeilijk te verklaren. Welke output een AI-systeem in een gegeven situatie zal genereren, is moeilijk te voorspellen. Aanduiden waar iets fout is gelopen, is quasi-onmogelijk.

Het reguleren van aansprakelijkheid voor AI-systemen wordt op deze manier een hele uitdaging.  De Europese Unie is deze uitdaging aangegaan en heeft in oktober 2020 een resolutie aangenomen van het Europees Parlement betreffende het civielrechtelijk aansprakelijkheidsstelsel voor kunstmatige intelligentie. Het betreft een voorstel tot verordening dat voorziet in aansprakelijkheid voor de operatoren (zowel back-end als front-end) van AI-systemen. Operatoren worden hierbij gedefinieerd als zij die controle hebben over het risico dat gepaard gaat met het AI-systeem en zij die voordeel trekken uit het gebruik van AI-systemen. De bedenking kan echter worden gemaakt of men nog kan spreken van “controle” in geval van data-gebaseerde AI-systemen.

Er wordt in de resolutie een objectieve aansprakelijkheid voorzien voor operatoren van AI-systemen met hoog risico en een omkering van bewijslast voor AI-systemen met laag risico. Er zou tevens een verplichte aansprakelijkheidsverzekering worden ingevoerd voor operatoren van AI-systemen met een hoog risico. De vraag kan hier worden gesteld of dit haalbaar is, gezien de afwezigheid van precedenten en verzekeringservaring met betrekking tot AI.

Wat betreft de categorisering van AI-systemen als hoog of laag risico, moet worden gekeken naar het voorstel tot verordening tot vaststelling van geharmoniseerde regels betreffende AI van 21 april 2021. Het voorstel omvat regelingen omtrent de toelaatbaarheid van AI-systemen (onderverdeeld in: onaanvaardbaar risico, hoog risico en laag risico) en de verplichtingen van de verschillende actoren betrokken bij het levensproces van AI-systemen.

Naast deze wetgevende initiatieven, zal ook de bestaande regelgeving in de toekomst worden aangepast aan de AI-maatschappij. Tot dan blijft deze bestaande regelgeving (denk aan: de Richtlijn Productaansprakelijkheid, de GDPR, de e-commerce directive (binnenkort DMA en DSA)) van toepassing op situaties waar AI aan te pas komt, met alle toepassingsproblemen van dien.

In de regelgevende initiatieven worden echter de meer diepgaande risico’s niet geregeld. Wat doen we, bijvoorbeeld, indien de AI van Deepmind zijn beheerderstoegang tot de servers van Google in Silicon Valley niet langer slechts gebruikt om het verbruik van netstroom te reguleren maar Google overneemt en een eigen leven gaat leiden? Hoewel dit een kwestie is die waarschijnlijk best geregeld wordt in de Verenigde Staten kan dergelijk voorval repercussies hebben op wereldvlak. Bovendien kan hetzelfde zich voordoen in de EU met een ander AI-systeem. Hoewel deze situaties misschien nog even in de toekomst liggen, mag de snelheid van de evolutie op vlak van AI niet onderschat worden. Debatten omtrent meer existentiële vragen en AI moeten worden gevoerd.

Schuermans advocaten volgt de regelgevende initiatieven van de Europese Unie op.