CCP ontwikkelt AI-wapens en negeert mondiale risico’s

Volgens verschillende experts die met The Epoch Times spraken, worden geavanceerde wapens die door artificiële intelligentie (AI) worden aangedreven een gevaar voor de mondiale veiligheid, vooral wanneer ze in handen zijn van de Chinese Communistische Partij (CCP). De CCP is erop gebrand om de Verenigde Staten militair te overtreffen en zal waarschijnlijk geen acht slaan ... Read more

featured-image

Volgens verschillende experts die met The Epoch Times spraken, worden geavanceerde wapens die door artificiële intelligentie (AI) worden aangedreven een gevaar voor de mondiale veiligheid, vooral wanneer ze in handen zijn van de Chinese Communistische Partij (CCP). De CCP is erop gebrand om de Verenigde Staten militair te overtreffen en zal waarschijnlijk geen acht slaan op de veiligheidsmaatregelen met betrekking tot dodelijke AI-technologieën, die op zichzelf al steeds gevaarlijker worden, aldus de experts. De aard van de technologie is er in het algemeen op gericht om de ergste neigingen van de menselijke psyche te voeden.

“De implicaties zijn behoorlijk dramatisch”, zegt Bradley Thayer, senior medewerker bij het Center for Security Policy, expert op het gebied van strategische beoordeling van China en medewerker van The Epoch Times. “En ze zijn misschien wel vergelijkbaar met de nucleaire revolutie.” Volgens Alexander De Ridder, een AI-ontwikkelaar en medeoprichter van Ink, een AI-marketingbedrijf, vordert de ontwikkeling van AI-gestuurde autonome wapens snel.



“Ze worden snel efficiënter en effectiever,” vertelde hij aan The Epoch Times, “maar ze zijn nog niet op het punt dat ze mensen kunnen vervangen.” Autonome drones, tanks, schepen en onderzeeërs zijn werkelijkheid geworden naast exotische versies zoals vierpotige robothonden gewapend met machinegeweren, die al in China te zien waren. Zelfs AI-gestuurde humanoïde robots, zoals die sciencefiction verschrikkingen, zijn in productie.

Toegegeven, ze zijn nog steeds nogal onhandig in de praktijk, maar dat zal niet lang meer duren, aldus De Ridder. “De mogelijkheden voor zulke robots ontwikkelen zich snel,” zei hij. Zodra deze machines verkoopbaar en betrouwbaar zijn, zal China zijn productiemogelijkheden waarschijnlijk richten op massaproductie, aldus De Ridder.

“De markt zal worden overspoeld met humanoïde robots en dan ligt het aan de programmering hoe ze worden gebruikt,” zei hij. Dat zou ook militair gebruik betekenen. “Het is min of meer onvermijdelijk,” zei hij.

Zulke AI-gestuurde robots zijn erg goed in het gebruik van optische sensoren om objecten te identificeren, waaronder mensen, zei James Qiu, oprichter van het GIT Research Institute en voormalig CTO bij FileMaker. En dat geeft ze het potentieel om zeer effectieve moordmachines te worden, zei hij. Op een breder niveau werken meerdere naties aan AI-systemen die in staat zijn om beslissingen op het slagveld te informeren en te coördineren – in wezen optredend als elektronische generaals, volgens Jason Ma, een data-onderzoeksleider bij een multinationaal Fortune 500-bedrijf.

Hij vroeg om de naam van zijn bedrijf niet bekend te maken, om niet de indruk te geven dat hij namens het bedrijf sprak. Het Volksbevrijdingsleger heeft onlangs gevechtsoefeningen gehouden waarbij een AI direct het commando voerde, en het Amerikaanse leger heeft ook projecten op dit gebied, aldus Ma. “Het is een zeer actief onderzoeks- en ontwikkelingsonderwerp,” zei hij.

De noodzaak is duidelijk; beslissingen op het slagveld worden geïnformeerd door een duizelingwekkende hoeveelheid gegevens, van historische context en inlichtingen uit het verleden tot bijna-realtime satellietgegevens en milliseconde-per-milliseconde invoer van elke camera, microfoon en wat voor sensor dan ook op het slagveld. Het is “erg moeilijk” voor mensen om zulke ongelijksoortige en omvangrijke gegevensstromen te verwerken, zei hij. “Hoe complexer de oorlogsvoering, hoe belangrijker het wordt om al deze informatie snel te integreren en samen te vatten om de juiste beslissing te nemen, binnen enkele seconden of zelfs binnen een subseconde,” zei hij.

AI-wapens geven nu al een nieuwe definitie aan oorlogsvoering, maar de experts die met The Epoch Times spraken, waren het erover eens dat de gevolgen veel breder zullen zijn. De technologie maakt de wereld steeds volatieler, zei Thayer. Op het meest rudimentaire niveau zal het met AI-gestuurde wapens waarschijnlijk veel makkelijker worden om intercontinentale ballistische raketten neer te halen, onderzeeërs op te sporen en te vernietigen en langeafstandsbommenwerpers neer te schieten.

Dat zou de nucleaire triade van de VS kunnen neutraliseren, waardoor tegenstanders ongestraft “verder kunnen escaleren dan het nucleaire niveau”, zei hij. “AI zou invloed hebben op elk van die componenten, die we tijdens de Koude Oorlog hebben ontwikkeld en beschouwd als absoluut essentieel voor een stabiele nucleaire afschrikking,” zei hij. “Tijdens de Koude Oorlog was er een algemeen begrip dat een conventionele oorlog tussen nucleaire machten niet haalbaar was.

...

AI ondermijnt dat, omdat het de mogelijkheid introduceert van een conventioneel conflict tussen twee nucleaire staten. “AI heeft een grote invloed op het slagveld, maar het is nog niet bepalend.” Als AI mogelijkheden “het effect van een nucleaire oorlog zonder gebruik van kernwapens” zouden bereiken, zou dat de wereld op een kruitvat doen belanden, zei hij.

“Als dat mogelijk is, en dat is heel waarschijnlijk, dan is dat een extreem gevaarlijke en destabiliserende situatie, omdat het iemand die aan de ontvangende kant van een aanval staat dwingt om als eerste te gaan – niet om de aanval te verdragen, maar om agressie te plegen.” In oorlogstaal heet dit concept “schadebeperking”, zei hij. “Je wilt niet dat de andere als eerste gaat, want dan raak je zwaar gewond.

Dus ga jij eerst. En dat zal de internationale politiek enorm destabiliseren.” Killer robots en drones zijn niet de enige reden tot bezorgdheid; er zouden verschillende onconventionele AI-wapens ontwikkeld kunnen worden, zoals een wapen om kwetsbaarheden te vinden in kritieke infrastructuur zoals het elektriciteitsnet of watervoorzieningssystemen.

Het beheersen van de verspreiding van dergelijke technologieën is een ontmoedigende taak, aangezien AI zelf slechts een stuk software is. Zelfs de grootste modellen passen op een gewone harde schijf en kunnen draaien op een klein serverpark. Eenvoudige maar steeds dodelijker wordende AI-wapens, zoals killer drones, kunnen in onderdelen worden verscheept zonder dat er alarm wordt geslagen.

“Zowel de verticale als horizontale verspreiding wordt enorm bevorderd, en het is gemakkelijk te doen,” zei Thayer. De Ridder wees erop dat de Chinese staat gezien wil worden als verantwoordelijk op het wereldtoneel. Maar dat heeft de CCP er niet van weerhouden om wapens te leveren of wapenprogramma’s te ondersteunen van andere regimes en groeperingen die het qua reputatie niet zo nauw nemen, merkten andere experts op.

De CCP zou bijvoorbeeld autonome wapens kunnen leveren aan terroristische groeperingen om het Amerikaanse leger op te zadelen met eindeloze asymmetrische conflicten. Het regime zou zelfs afstand kunnen bewaren door alleen de onderdelen te leveren en de drones door derden te laten assembleren, net zoals Chinese leveranciers fentanyl-precursoren leveren aan Mexicaanse kartels en hen de drugs laten produceren, verschepen en verkopen. De CCP heeft een lange geschiedenis van steun aan Iraanse wapenprogramma’s, terwijl Iran op zijn beurt wapens levert aan terroristische groeperingen in de regio.

“Er zou weinig belemmering zijn voor Iran om dit te doen,” zei Thayer. Het is algemeen aanvaard, tenminste in de Verenigde Staten en onder haar bondgenoten, dat de meest cruciale beveiliging tegen AI-wapens die verwoestingen aanrichten, is dat een mens de controle blijft behouden over belangrijke beslissingen, in het bijzonder het gebruik van dodelijk geweld. “Onder geen enkele omstandigheid zouden machines autonoom, onafhankelijk, ooit een menselijk leven mogen nemen,” zei De Ridder.

Naar dit principe wordt vaak verwezen met de uitdrukking “mens in het spel”. “Een mens heeft een geweten en moet ‘s ochtends wakker worden met wroeging en de gevolgen van wat hij heeft gedaan, zodat hij ervan kan leren en geen wreedheden meer begaat,” zei De Ridder. Sommige experts wezen er echter op dat dit principe reeds wordt uitgehold door de aard van gevechten die door AI-mogelijkheden is veranderd.

In de Oekraïense oorlog bijvoorbeeld moest het Oekraïense leger zijn drones uitrusten met een zekere mate van autonomie om zichzelf naar hun doelen te leiden, omdat hun communicatie met menselijke operatoren werd verstoord door het Russische leger. Dergelijke drones werken alleen met eenvoudige AI, zei Ma, gezien de beperkte kracht van de boordcomputer van de drone. Maar dat kan binnenkort veranderen, omdat zowel AI-modellen als computers steeds sneller en efficiënter worden.

Apple werkt al aan een AI die op een telefoon kan draaien. “Het is zeer waarschijnlijk dat het in de toekomst in een kleine chip wordt gestopt,” zei hij. In een groot conflict waar honderden of misschien wel duizenden drones tegelijk worden ingezet, kunnen ze bovendien rekenkracht delen om veel complexere autonome taken uit te voeren.

“Het is allemaal mogelijk,” zei hij. ” We zijn nu zo ver dat het geen sciencefiction meer is; het is alleen nog maar een kwestie van of er een groep mensen is die er tijd aan wil besteden. Het is concrete technologie.

” Het uit noodzaak verwijderen van menselijke controle is geen nieuw concept volgens James Fanell, voormalig marine inlichtingenofficier en een expert op het gebied van China. Hij gaf het voorbeeld van het Aegis Combat System dat wordt gebruikt op Amerikaanse geleide raketkruisers en -vernietigers. Het detecteert en volgt automatisch luchtdoelen en lanceert raketten om ze neer te schieten.

Normaal gesproken bestuurt een menselijke operator de raketlanceringen, maar er is ook een manier om het systeem in de automatische modus te zetten, bijvoorbeeld als er te veel doelen zijn die de menselijke operator niet kan volgen. Het systeem identificeert en vernietigt de doelen dan zelf, aldus Fanell. In massale drone oorlogvoering, waarbij een AI duizenden drones aanstuurt in een gecoördineerde aanval, zal de partij die haar AI autonomie geeft om te schieten een groot snelheidsvoordeel behalen ten opzichte van de partij die een mens nodig heeft om elk schot goed te keuren.

“Op het individuele schietniveau moeten mensen de controle opgeven omdat ze niet zo snel alle beslissingen kunnen nemen,” zei Ma. De Ridder wees erop dat een drone die uit zichzelf op een andere drone schiet moreel aanvaardbaar zou zijn. Maar dat zou een heleboel autonoom schieten kunnen ontketenen op een slagveld waar misschien ook mensen zijn, wat de deur openzet voor onnoemelijke bijkomende slachtoffers.

Wat voor AI-maatregelen er ook mogelijk zijn, de CCP zal zich er waarschijnlijk toch niet aan houden, daar waren de meeste experts het over eens. “Ik zie niet echt grenzen voor China om in acht te nemen,” zei Ma. “Wat er ook mogelijk is, ze zullen het doen.

” “Het idee dat China zich zou beperken in het gebruik ervan, zie ik niet”, zei Fanell. “Ze zullen proberen er hun voordeel mee te doen en het sneller te exploiteren dan wij dat kunnen.” Het “mens in het spel”-principe zou eenvoudigweg geherinterpreteerd kunnen worden zodat het van toepassing is op “een groter, volledig gevechtsniveau” in plaats van “het individuele schietniveau”, zei Ma.

Maar als je eenmaal accepteert dat AI in sommige omstandigheden uit zichzelf kan gaan schieten, wordt het principe van menselijke controle kneedbaar, aldus Fanell. “Als je bereid bent om dat in tactische zin te accepteren, wie zal dan zeggen dat je het niet doorvoert tot op het hoogste niveau van oorlogsvoering?” zei hij. “Het is de natuurlijke evolutie van een technologie als deze en ik weet niet zeker wat we kunnen doen om het te stoppen.

Het is niet zo dat er een ethische code komt die zegt dat we ons in oorlogsvoering moeten houden aan de Marquess of Queensberry boksregels. Dat gaat niet gebeuren.” Zelfs als mensen de controle houden over macrobeslissingen, zoals de vraag of een bepaalde missie gelanceerd moet worden, kan AI gemakkelijk het besluitvormingsproces domineren.

Het gevaar zou niet een slecht presterende AI zijn, maar eerder een die zo goed werkt dat het het vertrouwen wint van de menselijke operatoren. De Ridder was sceptisch ten aanzien van voorspellingen over superintelligente AI die de menselijke capaciteiten ver overstijgt. Hij erkende echter wel dat AI in sommige opzichten de mens overtreft, met name in snelheid; het kan bergen gegevens verwerken en vrijwel onmiddellijk een conclusie genereren.

En volgens Ma en Qiu is het vrijwel onmogelijk om erachter te komen hoe een AI precies tot zijn conclusies komt. De Ridder zei dat hij en anderen werken aan manieren om AI te beperken tot een menselijke werkwijze, zodat de afzonderlijke stappen van de redenering beter te onderscheiden zijn. Maar gezien de ongelofelijke hoeveelheid gegevens die erbij betrokken zijn, zou het voor de AI onmogelijk zijn om uit te leggen hoe elk stukje informatie meeweegt in zijn redenering zonder de operator te overweldigen, aldus Ma.

“Als de menselijke operator duidelijk weet dat dit een beslissing is [gemaakt] nadat de AI terabytes aan gegevens heeft verwerkt, zal hij in de meeste gevallen niet echt de moed hebben om die beslissing te overrulen. Dus ik denk, ja, het zal een formaliteit zijn,” zei hij. “‘Mens in het spel’ is een comfortabele uitdrukking, maar in werkelijkheid zullen mensen de controle snel opgeven.

” Alle experts waren het erover eens dat publieke druk de ontwikkeling en het gebruik van AI-wapens waarschijnlijk zal beperken, in ieder geval in de Verenigde Staten. Ma gaf het voorbeeld van Google die een defensiecontract beëindigde na bezwaren van zijn personeel. Hij kon zich echter geen vergelijkbare situatie in China voorstellen.

Qiu was het daarmee eens. “Alles binnen China is een bron die de CCP kan gebruiken”, zei hij. “Je kunt niet zeggen: ‘Oh, dit is een privébedrijf.

’ Er is niet echt een privébedrijf [in China].” Zelfs de CCP kan zich niet helemaal ontdoen van het publieke sentiment, zei De Ridder. “De overheid kan alleen overleven als de bevolking wil meewerken,” zei hij.

Maar er zijn geen aanwijzingen dat de Chinese bevolking militair gebruik van AI als een urgente bezorgdheid ziet. Integendeel, bedrijven en universiteiten in China staan te popelen om militaire contracten binnen te halen, zei Ma. De Ridder riep op tot “een internationaal regelgevend kader dat kan worden opgelegd”.

Het is niet duidelijk hoe zulke regels kunnen worden afgedwongen ten aanzien van China, dat een lange geschiedenis heeft van het weigeren van beperkingen op zijn militaire ontwikkeling. De Verenigde Staten hebben lange tijd tevergeefs geprobeerd China aan tafel te krijgen voor nucleaire ontwapening. Onlangs weigerde China een verzoek van de VS om te garanderen dat het geen AI zou gebruiken voor beslissingen over nucleaire aanvallen.

Als de Verenigde Staten zijn eigen AI-ontwikkeling reguleert, zou dat een strategische kwetsbaarheid kunnen creëren, opperden meerdere experts. “Deze regels zullen zeer goed worden bestudeerd door de CCP en worden gebruikt als een hulpmiddel bij aanvallen,” zei Qiu. Zelfs als er een soort overeenkomst wordt bereikt, heeft de CCP volgens Thayer een slechte staat van dienst als het gaat om het nakomen van beloftes.

“Elke overeenkomst is als een taartkorst die gemaakt is om gebroken te worden,” zei hij. De Ridder zei dat hij hoopt dat landen misschien genoegen zullen nemen met het gebruik van AI op minder destructieve manieren. “Er zijn veel manieren waarop je AI kunt gebruiken om je doelen te bereiken zonder een zwerm moorddrones op elkaar af te sturen,” zei hij.

“Als puntje bij paaltje komt, wil niemand dat deze conflicten plaatsvinden.” Andere experts zeiden dat de CCP het niet erg zou vinden om zo’n conflict te beginnen – zolang ze maar een duidelijk pad naar de overwinning zien. “De Chinezen laten zich niet beperken door onze regels,” zei Fanell.

“Ze zullen alles doen wat nodig is om te winnen. Vertrouwen op het advies van een AI militair adviseur, een die vertrouwen wekt door bergen gegevens te verwerken en overtuigende strijdplannen te produceren, kan bijzonder gevaarlijk zijn, omdat het een visie op overwinning kan creëren waar er eerder geen was, aldus Thayer. “Je kunt je voorstellen hoe dat heel aantrekkelijk kan zijn voor een besluitvormer, vooral voor één die hyperagressief is, zoals de CCP,” zei Thayer.

“Het kan agressie waarschijnlijker maken.” “Er is maar één manier om het te stoppen, namelijk door het te kunnen verslaan,” zei Fanell. Chuck de Caro, voormalig consultant voor het Pentagon’s Office of Net Assessment, riep de Verenigde Staten onlangs op om elektromagnetische wapens te ontwikkelen die computerchips onklaar kunnen maken.

Het is misschien zelfs mogelijk om energiewapens te ontwikkelen die een bepaald soort chips kunnen uitschakelen, schreef hij in een voor Blaze Media. “Het is duidelijk dat AI zonder functionerende chips niet werkt,” schreef hij. Een andere optie zou kunnen zijn om een AI-superwapen te ontwikkelen dat als afschrikmiddel kan dienen.

“Is er een AI Manhattan Project waar de VS mee bezig is dat het effect kan creëren dat Nagasaki en Hiroshima zouden hebben op de VRC en de Chinese Communistische Partij, dat hen tot het besef zou brengen dat ‘OK, misschien willen we daar niet naartoe. Dit is een wederzijdse gegarandeerde vernietiging’? Ik weet het niet. Maar dat is wat ik zou doen,” zei Fanell.

Dat zou de wereld in een Koude Oorlog-achtige impasse kunnen brengen – niet echt een ideale situatie, maar wel een die waarschijnlijk te verkiezen is boven het afstaan van militair voordeel aan de CCP. “Elk land weet dat het gevaarlijk is, maar niemand kan stoppen omdat ze bang zijn achter te blijven,” zei Ma. De Ridder zei dat er misschien een grote schok nodig is om de AI-wapenwedloop te stoppen.

“We hebben misschien een wereldoorlog nodig, met een immense menselijke tragedie, om het gebruik van autonome AI-moordmachines te verbieden,” zei hij. Epoch Times is een onafhankelijke nieuwsorganisatie die niet beïnvloed wordt door een regering, bedrijf of politieke partij. Vanaf de oprichting is Epoch Times geconfronteerd met pogingen om de waarheid te onderdrukken – vooral door de Chinese Communistische Partij.

Maar we zullen niet buigen. De Nederlandstalige editie van Epoch Times biedt op dit moment geen betalende abonnementen aan en aanvaardt op dit moment geen donaties. U kan echter wel bijdragen aan de verdere groei van onze publicatie door onze artikelen te liken en te her-posten op sociale media en door uw familie, vrienden en collega’s over Epoch Times te vertellen.

Deze dingen zijn echt waardevol voor ons. Waarheid & Traditie.