Artificial Intelligence (AI) kan leiden tot ernstige gevolgen, vooral als het in verkeerde handen valt. Deep learning systemen worden steeds toegankelijker en de kennis die daarbij komt kijken kan worden gebruikt voor verkeerde doeleinden. Deze ontwikkeling baart AI-experts zoals Hinton grote zorgen. Het voorkomen van misbruik is namelijk bijna onmogelijk. We onderzoeken wie de grootste bedreigingen vormen voor Nederland en of we de risico’s van generatieve AI kunnen beperken.

Risico’s misbruik Deep Learning

Als deep learning systemen worden gebruikt met verkeerde bedoelingen,  kan dit leiden tot een aantal ernstige risico’s. Hieronder noemen we er enkele.

 

  • Deep learning-systemen kunnen worden gebruikt voor kennis die kan worden gebruikt om wapens te ontwikkelen. Denk daarbij aan biowapens, virussen en massavernietigingswapens.
  • Ook autonome wapens, zoals bijvoorbeeld autonome drones, zijn ook een risico van deep learning. Deze wapens kunnen doelen kunnen identificeren en aanvallen zonder tussenkomst van een menselijke operator.
  • De meest geavanceerde cyberaanvallen kunnen worden uitgevoerd met hulp van deep learning. Bijvoorbeeld het hacken van overheidsnetwerken of het stelen van gevoelige informatie.
  • De systemen kunnen ook worden gebruikt om informatie te manipuleren. Denk daarbij aan het creëren van nepnieuws of het manipuleren van sociale media. Dit kan worden gebruikt om publieke opinies te beïnvloeden, verkiezingen te beïnvloeden of om economische of politieke doelen te bereiken.
  • Omdat de systemen kunnen worden gebruikt om massale hoeveelheden persoonlijke gegevens te verzamelen en te analyseren, kan de privacy van individuen in gevaar komen.

Risico’s van AI vanuit andere landen

Er zijn verschillende landen die worden beschouwd als potentiële bedreigingen voor Nederland op het gebied van generatieve AI. Hieronder staan enkele van deze landen:

 

China

In de afgelopen jaren is China hard op weg om een leider te worden op het gebied van AI-technologieën. Het land heeft het miljarden dollars geïnvesteerd in de ontwikkeling van nieuwe technologieën. Deze investeringen hebben geleid tot een indrukwekkende groei van de AI-industrie in China. China heeft daardoor de potentie om een wetenschappelijke voorsprong kan krijgen op andere landen. Daarnaast heeft China een reputatie op het gebied van hacking en cybercriminaliteit. De angst is dat China daarbij AI-technologieën kan gebruiken voor kwaadaardige doeleinden.

 

Rusland

Rusland heeft de afgelopen jaren veel geïnvesteerd in AI-technologieën. Het land heeft een sterke focus op militaire toepassingen van deze technologieën. Ze hebben ook een reputatie op het gebied van cybercriminaliteit en hacken, wat betekent dat het een bedreiging kan vormen voor Nederland op het gebied van AI-beveiliging. Als Rusland meer kennis en informatie heeft over generatieve AI-technologieën, kan het een wetenschappelijke voorsprong krijgen op dit gebied, wat geen goed nieuws voor Nederland betekent. 

 

Iran en Noord-Korea

Iran en Noord-Korea zijn beide landen die grote interesse hebben getoond in de ontwikkeling van AI-technologieën, voornamelijk voor militaire doeleinden. Ze staan bekend om hun nucleaire programma’s en hebben in het verleden sancties opgelegd gekregen vanwege het ontwikkelen van massavernietigingswapens. Er is daarom bezorgdheid dat deze landen AI-technologieën kunnen gebruiken om hun militaire capaciteit te vergroten. Daarmee kunnen ze de internationale veiligheid en stabiliteit in gevaar brengen. Naast de militaire toepassingen van AI-technologieën, kunnen Iran en Noord-Korea ook een bedreiging vormen voor Nederland en andere landen op het gebied van cybercriminaliteit en hacken. 

Risico’s van AI vanuit groeperingen en criminele organisaties

Bepaalde groeperingen vormen voor Nederland ook een groter risico met de komst van gereatieve AI. Een aantal voorbeelden van georganiseerde groeperingen en criminele organisaties die mogelijk een bedreiging kunnen vormen voor Nederland op het gebied van generatieve AI zijn:

 

  • Terroristische organisaties zoals Al-Qaida en ISIS, die bekend staan om hun gewelddadige aanvallen op de samenleving en hun vermogen om geavanceerde technologieën te gebruiken voor kwaadaardige doeleinden.
  • Georganiseerde misdaadgroepen die zich bezighouden met illegale activiteiten zoals drugshandel, mensenhandel en cybercriminaliteit. Deze groepen kunnen mogelijk gebruikmaken van generatieve AI om hun activiteiten te verfijnen en hun winst te vergroten.
  • Hacktivisten en andere groeperingen die zich richten op het uitvoeren van cyberaanvallen en het verspreiden van desinformatie. Deze groepen kunnen mogelijk gebruikmaken van generatieve AI om hun aanvallen te verbeteren en hun propaganda te verspreiden.

Risico’s van AI vanuit individuen

Ook de gewone mens krijgt toegang tot meer kennis en informatie dan ooit tevoren. Door deze technologieën is het namelijk mogelijk dat individuen in hun eentje, in een kelder of achterkamertje, aanzienlijke schade kunnen aanrichten. Dit komt doordat de ontwikkeling van AI-technologieën het mogelijk maakt om geavanceerde wapens te ontwikkelen en informatie te manipuleren op een schaal die voorheen niet mogelijk was. Met behulp van AI-technologieën kunnen individuen met slechte bedoelingen bijvoorbeeld biologische wapens ontwikkelen, virussen creëren, cyberaanvallen uitvoeren of andere illegale en kwaadaardige doeleinden bereiken.

Het kan leiden tot een situatie waarin individuen, zonder de noodzakelijke regulering en controle, toegang hebben tot geavanceerde technologieën die potentieel gevaarlijk zijn. Dit kan leiden tot schade aan mensenlevens, verstoring van de economie en schade aan de samenleving als geheel.

Zijn de risico’s te beperken?

Door de opkomst van deep learning systemen en de groeiende toegankelijkheid van kennis en informatie wordt het steeds gemakkelijker om met slechte bedoelingen aanzienlijke schade aan te richten. Deze ontwikkeling is zorgwekkend en een van de grootste zorgen van AI-experts zoals Hinton, die onlangs zijn vertrek bij Google heeft aangekondigd.

Hinton geeft aan dat het voorkomen van misbruik van AI-technologieën bijna onmogelijk is, omdat het te gemakkelijk is voor individuen om deze technologieën te gebruiken voor kwaadaardige doeleinden. Hij pleit voor het ontwikkelen van AI-systemen die ethisch verantwoord zijn en voor een betere regulering van het gebruik van deze technologieën.

 

Het beperken van de risico’s is dus geen eenvoudige zaak. Door het maken van goede afspraken en het reguleren van deze technologieën kan de kans op catastrofale problemen worden beperkt. Het is daarom van groot belang dat regeringen en de industrie samenwerken om de ontwikkeling en het gebruik van generatieve AI te reguleren en controleren.

Bronnen