De wereld volgens Irma

In dialoog met AI

In dialoog met AI: ethiek, manipulatie en bewustwording. Deel 2

In

AI in het heden en in de toekomst

In deel 1 hebben we het gehad over ethische overwegingen en de valkuilen voor het gebruik van AI. Verder hebben we het ook over het belang gehad om bias zo veel mogelijk te minimaliseren.
Tijdperk en culturele context kunnen de AI modellen beïnvloeden.

Het is dan ook logisch dat het vervolg van mijn gesprek met ChatGPT gaat over manipulatie van de data. Wat betekent dat voor de toekomst? En wat kunnen wij zelf doen om het risico zo klein mogelijk te maken? Of te herkennen?

In het (verre) verleden heb ik de boeken van Isaac Asimov verslonden. Isaac Asimov, een natuurkundige, was ook een begenadigde schrijver. In een van zijn boeken introduceerde hij de drie robotwetten. Die zijn me altijd bijgebleven. Ik kan het niet nalaten om te kijken in hoeverre deze wetten geïmpliceerd zijn bij de ontwikkeling van de huidige AI.

Ben jij bekend met de drie robotwetten van Isaac Asimov?

ChatGPT

Ja, ik ben bekend met de drie robotwetten van Isaac Asimov. Ze zijn een conceptuele set van regels die Asimov introduceerde in zijn sciencefictionverhalen en romans om de interacties tussen robots en mensen te reguleren. De drie robotwetten zijn:

  1. Een robot mag een mens geen letsel toebrengen of, door niet te handelen, toestaan dat een mens letsel wordt toegebracht.
  2. Een robot moet de bevelen gehoorzamen die hem door mensen gegeven worden, behalve als deze in strijd zijn met de eerste wet.
  3. Een robot moet zijn eigen bestaan beschermen, voor zover deze bescherming niet in strijd is met de eerste of tweede wet.

Deze robotwetten hebben een blijvende invloed gehad op het genre van de sciencefiction en hebben geleid tot veel discussie over ethiek, kunstmatige intelligentie en de relatie tussen mens en machine.

In hoeverre is er rekening gehouden met deze drie wetten bij de ontwikkeling van AI?

ChatGPT

Hoewel de drie robotwetten van Isaac Asimov een inspiratiebron zijn geweest voor de discussie over ethiek in kunstmatige intelligentie (AI), zijn ze niet direct vertaald naar de ontwikkeling van moderne AI-systemen. In plaats daarvan zijn moderne ethische richtlijnen en normen voor AI-ontwikkeling gebaseerd op een bredere reeks principes en overwegingen, waaronder:

  • Veiligheid en beveiliging: Moderne AI-systemen worden ontwikkeld met een sterke nadruk op veiligheid en beveiliging, om te voorkomen dat ze schade veroorzaken aan mensen of eigendommen.
  • Verantwoorde en transparante AI: Er wordt gestreefd naar AI-systemen die verantwoordelijkheid kunnen afleggen voor hun acties en die transparant zijn over hun werking, zodat gebruikers en belanghebbenden in staat zijn om ze te begrijpen en te controleren.
  • Mensgerichte ontwerpbenadering: Bij de ontwikkeling van AI-systemen wordt steeds meer rekening gehouden met de behoeften en waarden van mensen, met als doel technologie te creëren die ten dienste staat van de mensheid en die menselijke waarden respecteert.
  • Diversiteit, inclusie en gelijkheid: Er wordt gestreefd naar het verminderen van bias en discriminatie in AI-systemen door diversiteit en inclusie te bevorderen in het ontwikkelingsteam en bij de selectie van trainingsgegevens.

Hoewel de drie robotwetten van Asimov niet rechtstreeks worden toegepast in moderne AI-ontwikkeling, hebben ze wel bijgedragen aan het bewustzijn en de discussie over ethische overwegingen in AI. Ze dienen als een inspiratiebron en als referentiepunt voor het nadenken over de mogelijke impact van AI op de samenleving en de noodzaak om ethische richtlijnen te ontwikkelen voor verantwoorde AI-toepassingen.

In hoeverre verwacht jij dat AI op een gegeven moment zelfstandig beslissingen zou kunnen nemen?

ChatGPT

Het vermogen van AI om zelfstandig beslissingen te nemen is sterk afhankelijk van de mate van vooruitgang in AI-technologieën en de ontwikkeling van geschikte algoritmen en systemen. Op dit moment zijn veel AI-systemen nog steeds beperkt tot het uitvoeren van specifieke taken op basis van vooraf gedefinieerde instructies en patronen in de gegevens.

Echter, er zijn al AI-systemen die enige vorm van autonomie vertonen bij het nemen van beslissingen in specifieke domeinen, zoals zelfrijdende auto’s, medische diagnosesystemen en financiële handelssystemen. Deze systemen kunnen op basis van complexe gegevens en algoritmen beslissingen nemen zonder directe menselijke tussenkomst.

In de toekomst is het mogelijk dat AI-systemen zich verder ontwikkelen en meer algemene intelligentie vertonen, waardoor ze in staat zijn om een breed scala aan taken uit te voeren en complexe beslissingen te nemen in diverse contexten. Dit wordt vaak aangeduid als “sterke AI” of “algemene kunstmatige intelligentie” en blijft een actief onderzoeksgebied binnen de AI-gemeenschap.

Hoewel de mogelijkheid van AI om autonoom beslissingen te nemen veelbelovend is voor diverse toepassingen, brengt het ook belangrijke ethische en maatschappelijke vraagstukken met zich mee, zoals verantwoordelijkheid, transparantie, en controle. Het is van essentieel belang om deze kwesties te adresseren en zorgvuldig te overwegen voordat autonome AI-systemen op grote schaal worden ingezet.

Gespannen luisterend over wat AI te zeggen heeft

Ik ga op het puntje van mijn stoel zitten, nu wordt het interessant…

Is er in AI een soort van rem ingebouwd om de ontwikkeling te stoppen op het moment dat het een gevaar voor de mensheid dreigt te worden?

ChatGPT

Er zijn verschillende mechanismen en richtlijnen die zijn ontwikkeld om de ontwikkeling en inzet van AI-systemen te reguleren en te beperken wanneer ze een potentieel gevaar voor de mensheid dreigen te vormen. Enkele van deze mechanismen omvatten:

  • Ethiek en verantwoorde AI: Ethische richtlijnen en principes voor AI-ontwikkeling benadrukken het belang van het waarborgen van de veiligheid, beveiliging en verantwoordelijkheid van AI-systemen. Dit omvat het vermijden van schadelijke toepassingen en het minimaliseren van risico’s voor de samenleving.
  • Wet- en regelgeving: Overheden en internationale organisaties kunnen wetten en regelgeving aannemen om de ontwikkeling en het gebruik van AI te reguleren, inclusief beperkingen op bepaalde toepassingen en het vaststellen van normen voor veiligheid en ethiek.
  • Technische beperkingen: AI-ontwikkelaars kunnen technische beperkingen inbouwen in AI-systemen om de kans op schadelijke gevolgen te verminderen. Dit kan onder meer het implementeren van veiligheidsmechanismen, fail-safes en monitoring- en terugvalsystemen omvatten.
  • Controle en toezicht: Het instellen van mechanismen voor controle en toezicht kan helpen om de ontwikkeling en inzet van AI-systemen te beheren en te beoordelen op mogelijke risico’s en gevolgen. Dit kan omvatten het opzetten van onafhankelijke commissies, audits en evaluaties van AI-systemen.

Hoewel deze mechanismen kunnen helpen om de risico’s van AI te beperken, blijft het een uitdaging om volledig te anticiperen op alle mogelijke gevolgen en om de ontwikkeling van AI in goede banen te leiden. Het blijft daarom van cruciaal belang om voortdurend de ethische en maatschappelijke implicaties van AI te evalueren en te streven naar een evenwicht tussen innovatie en veiligheid.

Is het mogelijk voor kwaadwillenden een AI te ontwikkelen die schadelijk zou kunnen zijn voor bepaalde groepen mensen?

ChatGPT

Ja, in theorie is het mogelijk voor kwaadwillenden om AI-systemen te ontwikkelen die schadelijk kunnen zijn voor bepaalde groepen mensen. Zo’n AI-systeem zou kunnen worden ingezet voor doeleinden zoals manipulatie, surveillance, discriminatie, of zelfs fysieke schade.

Er zijn verschillende manieren waarop kwaadwillenden schadelijke AI kunnen ontwikkelen:

  • Manipulatie van trainingsgegevens: Kwaadwillenden kunnen proberen AI-systemen te manipuleren door trainingsgegevens te vervalsen of te beïnvloeden, waardoor het model vooringenomen of schadelijk gedrag vertoont.
  • Exploitatie van zwakke punten: Kwaadwillenden kunnen gebruikmaken van kwetsbaarheden in AI-systemen om schadelijke acties uit te voeren, zoals het omzeilen van beveiligingsmaatregelen of het uitvoeren van aanvallen zoals phishing of malwareverspreiding.
  • Doelbewuste creatie van schadelijke AI: Kwaadwillenden kunnen AI-systemen ontwikkelen met als doel schade toe te brengen aan specifieke doelwitten of groepen, zoals het ontwikkelen van autonome wapensystemen of geautomatiseerde propagandamachines.

Om dergelijke risico’s te beperken, is het belangrijk om maatregelen te nemen om de veiligheid en beveiliging van AI-systemen te waarborgen. Dit omvat het implementeren van veiligheidsmaatregelen, het uitvoeren van ethische beoordelingen, het bevorderen van transparantie en verantwoording, en het aannemen van passende wet- en regelgeving om misbruik van AI tegen te gaan. Daarnaast is het essentieel om bewustwording te creëren over de potentiële risico’s van schadelijke AI en samen te werken aan het ontwikkelen van ethische normen en richtlijnen voor de ontwikkeling en inzet van AI-technologieën.

Kan je nog meer voorbeelden geven van de gevolgen van AI in de verkeerde handen?

ChatGPT

Natuurlijk, hier zijn enkele voorbeelden van de mogelijke gevolgen van AI in de verkeerde handen:

  • Massasurveillance: Kwaadwillenden kunnen AI-systemen gebruiken voor massasurveillance, waarbij ze geavanceerde algoritmen en technologieën inzetten om mensen te volgen, te identificeren en te monitoren zonder hun medeweten of toestemming. Dit kan leiden tot schendingen van de privacy en mensenrechten, en het ondermijnen van democratische waarden.
  • Manipulatie van informatie: AI kan worden gebruikt om desinformatie en propaganda te verspreiden op grote schaal, waardoor het publieke opinie kan worden beïnvloed, sociale onrust kan worden veroorzaakt en democratische processen kunnen worden gemanipuleerd. Dit kan leiden tot polarisatie, wantrouwen in de media en instabiliteit in de samenleving.
  • Cyberaanvallen: Kwaadwillenden kunnen AI-systemen gebruiken om geavanceerde cyberaanvallen uit te voeren, zoals het automatisch identificeren en exploiteren van kwetsbaarheden in computersystemen, het ontwikkelen van zelflerende malware en het uitvoeren van gerichte phishingcampagnes. Dit kan leiden tot ernstige schade aan bedrijven, overheidsinstanties en individuele gebruikers, met potentieel verstrekkende gevolgen voor de economie en de maatschappij.
  • Autonome wapens: AI kan worden gebruikt om autonome wapensystemen te ontwikkelen, zoals drones, robots en geautomatiseerde wapens, die in staat zijn om zelfstandig doelen te selecteren en aan te vallen zonder menselijke tussenkomst. Dit kan leiden tot escalatie van gewapende conflicten, onbedoelde slachtoffers en het verlies van menselijk leven, en het verhogen van de dreiging van militaire confrontaties.

Deze voorbeelden benadrukken het belang van verantwoordelijke en ethische ontwikkeling, inzet en regulering van AI-technologieën, evenals het belang van bewustzijn en samenwerking om de potentiële risico’s van misbruik van AI tegen te gaan.

Uit de voorbeelden die je noemt, denk ik op te kunnen maken dat er op dit moment al gebruik gemaakt wordt van AI ontwikkeld door verkeerde mensen. Kan dat kloppen?

ChatGPT

Ja, dat klopt. Er zijn inderdaad gevallen bekend waarbij AI-technologieën zijn gebruikt voor doeleinden die schadelijk zijn voor individuen, gemeenschappen of samenlevingen als geheel. Enkele voorbeelden zijn:

  • Massasurveillance: Overheden en andere entiteiten hebben AI-technologieën gebruikt voor massasurveillance, waarbij ze gegevens verzamelen, analyseren en monitoren van grote groepen mensen zonder hun medeweten of toestemming. Dit kan leiden tot schendingen van de privacy en mensenrechten.
  • Manipulatie van informatie: Er zijn gevallen bekend waarbij AI is gebruikt om desinformatie en propaganda te verspreiden op sociale media en andere online platforms, met als doel het beïnvloeden van de publieke opinie, het zaaien van verdeeldheid en het destabiliseren van democratische processen.
  • Cyberaanvallen: Kwaadwillenden maken gebruik van AI-technologieën om geavanceerde cyberaanvallen uit te voeren, zoals het ontwikkelen van zelflerende malware, het uitvoeren van gerichte phishingcampagnes en het identificeren van kwetsbaarheden in computersystemen. Dit kan leiden tot ernstige schade aan bedrijven, overheidsinstanties en individuele gebruikers.
  • Autonome wapens: Hoewel autonome wapensystemen nog niet op grote schaal worden ingezet, zijn er zorgen geuit over de ontwikkeling en proliferatie ervan door verschillende actoren, waaronder staten en niet-statelijke groeperingen. Deze systemen kunnen potentieel leiden tot escalatie van gewapende conflicten en onbedoelde slachtoffers.

Hoewel deze voorbeelden benadrukken dat AI-technologieën al worden gebruikt voor schadelijke doeleinden, is het belangrijk op te merken dat er ook veel positieve toepassingen zijn van AI die bijdragen aan de samenleving. Het is van cruciaal belang om te werken aan ethische richtlijnen, regulering en bewustwording om de potentiële risico’s van misbruik van AI tegen te gaan en te minimaliseren.

Oké. Waarschijnlijk wisten heel wat mensen dit al. Tot in de hoogste kringen. Maar hoe kunnen wij als gewone burgers in hemelsnaam hiermee goed omgaan? Lees dat in Deel 3.