Wetenschap
Dood door software
Is het gevaarlijk dat je koelkast zelf nadenkt? De Amerikaanse expert Jay Tuck vindt van wel. ‘Apparaten zijn niet boos of verdrietig, maar voeren hun taak uit. Zo kunnen ze botsen met mensen.’
donderdag 2 november 2017
De Northrop Grumman X-47B: deze ‘onzichtbare’ drone filmt de lucht boven zich en vertoont die beelden vervolgens op een led-scherm aan de onderkant. Foto Northrop Grumman

Door Vincent Bongers Kunstmatige intelligentie verandert onze wereld, en niet alleen ten goede, stelt de Amerikaanse journalist, schrijver en filmmaker Jay Tuck (1945). Sterker nog: zelfdenkende en -lerende machines brengen ons in grote problemen. ‘Als we niet oppassen, gaat kunstmatige intelligentie ons vermoorden.’

Vrijdag geeft Tuck in de Stadsgehoorzaal een lezing op de technologieconferentie Brave New World. ‘Kunstmatige intelligentie is software die zichzelf schrijft, en die zich blijft aanpassen. En na vijf of zes van die aanpassingen is het zelfs voor een specialist onmogelijk om te achterhalen wat er nu precies is veranderd. We raken de controle kwijt. De machines doen straks niet meer wat we willen.’

Als correspondent volgde Tuck de Eerste en de Tweede Golfoorlog van zeer nabij. Hij zag het slagveld veranderen. Van kruisrakketten naar smartbombs, en nu al een tijdje killerdrones. En die zelfvliegende apparaten gaan binnenkort zelf beslissen over leven en dood.

‘Iedereen kent de Predator-drone van televisie, maar dat ding is al twintig jaar oud, en gaat nu langzamerhand uit dienst. De nieuwste generatie drones van het Amerikaanse leger is al in gebruik: de Northrop Grumman X-47B.  Dat is een ingenieus apparaat. Op de bovenkant zitten camera’s die de lucht boven het toestel filmen. De onderkant is bedekt met een led-scherm waarop die opnamen worden vertoond. Zo is het onbemande vliegtuig niet te zien vanaf de grond.

‘Dat is al sophisticated, maar wat veel belangrijker is dat er in die nieuwe drones ook software zit die kill decisions kan nemen: het vliegtuig besluit zelf wie een bom op zijn dak krijgt. Het zijn programma’s die kunnen leren en inspelen op veranderende situaties. Het idee is dat software de situatie beter kan inschatten, dan een persoon ergens in een container in de VS met een joystick in de hand. Het is nu nog verboden, maar het Pentagon wil de drones graag zelf laten beslissen,

‘Dit kan echter enorm fout gaan en dat is al bijna een keer gebeurd. De TALON SWORDS is een Amerikaanse drone op rupsbanden, uitgerust met kanon en raketten. Bij een demonstratie voor generaals en hoogwaardigheidsbekleders raakte de controle over de machine verloren. De wapens van de drone waren op het publiek gericht. Gelukkig was er een militair die het ding als een American football player wist te tackelen.’

Maar het gaat zeker niet alleen om militaire software, waarschuwt Tuck. ‘Om ons heen worden apparaten ook steeds slimmer. Beurshandelaren zijn allang niet meer bepalend in de financiële wereld, maar slechts figuranten in een film. Computernetwerken verrichten de belangrijke transacties. Daar zie je weer dat verlies van controle.’

Vaak denken mensen bij rampen met kunstmatige intelligentie aan The Terminator, in die film wordt het computernetwerk Skynet zelfbewust en poogt vervolgens de mensheid uit te roeien. ‘Dat is Hollywood, daar komt emotie bij kijken. Apparaten met kunstmatige intelligentie zijn niet boos of verdrietig, ze willen hun taak uitvoeren, en blijven zich aanpassen om dat zo goed mogelijk te doen. Op die manier kunnen ze in botsing komen met mensen.

'Als we nu kunstmatige intelligentie gaan gebruiken om het milieuprobleem aan te pakken, dan kunnen ze wel eens gaan beslissen dat, jij met je te vieze auto, de weg versperd moet worden.

'En de technologie zit overal in. Dat is ook het gevaar van the internet of things. De koelkast en je toaster gaan straks zelf nadenken, dat kan nare gevolgen hebben. En de stekker uit het apparaat trekken is niet afdoende meer. Computers praten allang niet meer vooral met ons, maar met elkaar. Alle informatie wordt uitgewisseld en komt op allerlei plekken in de wereld terecht.’

Wat kunnen we dan wel doen? ‘Daar is lastig antwoord op te geven. Je zou een ethisch component kunnen toevoegen aan de zelflerende programma’s: ze morele afwegingen te laten maken. Maar dat is moeilijk en daar schuilt ook weer gevaar in. De bedrijven en specialisten die zich met kunstmatig intelligentie bezig houden, hebben ook nog geen oplossing.’

Conferentie Brave New World

Stadsgehoorzaal, 2 en 3 november

Jay Tuck spreekt vrijdag om 15.30 uur, zie bravenewworld.nl