Column: Wereldnieuws nader belicht
05 Jun, 00:59
foto
Marten Schalkwijk


Het dreigend gevaar van de kunstmatige intelligentie

Computers worden steeds ‘slimmer’ en dat blijkt met name uit programma’s die met kunstmatige intelligentie (Artifical Intelligence = A.I.) werken. Een aantal vooraanstaande kenners van A.I. waarschuwen voor het risico dat de mens uitgeroeid kan worden. Wat is er aan de hand?

Kunstmatige Intelligentie
Leiders van enkele toporganisaties die aan Kunstmatige Intelligentie werken -m.n. OpenAI, Google Deepmind, Anthropic en enkele andere A.I. laboratoria- waarschuwen in een open brief dat toekomstige A.I. systemen net zo dodelijk zouden kunnen worden als de Covid pandemie en kernwapens. De brief is getekend door meer dan 350 leiders, onderzoekers en ingenieurs die met A.I. werken. Hun brief is erg kort met de volgende verklaring “Mitigating the risk of extinction from A.I. should be a global priority alongside other societal-scale risks, such as pandemics and nuclear war,” en is uitgegeven door het Centrum voor A.I. veiligheid. Ze roepen dus op om voorzorgsmaatregelen te treffen tegen eventuele schadelijke effecten die A.I. kan veroorzaken.

In een andere brief, ondertekend door meer dan 1.000 deskundigen, wordt zelfs opgeroepen om de ontwikkeling van A.I. tenminste zes maanden te stoppen, zodat de regering(en) wetten kan slaan om het geheel te reguleren. Kortom degenen die bezig zijn om A.I. verder te ontwikkelen, zijn zelf bang voor de mogelijke gevolgen van te ver doorgevoerde kunstmatige intelligentie.

Wat is A.I.?
De term Kunstmatige Intelligentie werd eind vijftiger jaren ingevoerd door een aantal wetenschappers dat bezig was om computers te maken die hetzelfde zouden moeten kunnen doen als de mens zelf zoals: redeneren, problemen oplossen, nieuwe taken leren, en in gewone taal communiceren. De ontwikkeling hiervan ging heel langzaam totdat men in 2012 neurale netwerken ontdekte, waarbij computers patronen beter gingen herkennen. Een aantal jaren later ging men de neurale netwerken inzetten voor zgn. Large Language Models (LLM), waarbij de computer grote hoeveelheden tekst kon doornemen. Hierdoor ‘leren’ computers veel sneller.

Doorbraken op A.I. gebied
Het laatste jaar gaat de toepassing van A.I. heel snel en wordt het gezien als een van de grootste technologische doorbraken in de wereld. De computers leren taal te ontcijferen en te schrijven. Ze kunnen veel data analyseren van iemand en op basis daarvan een toespraak voor die persoon schrijven en zelfs uitspreken. Ze kunnen veel onderzoek bijeenbrengen en nieuwe combinaties maken, wat tot geweldige ontdekkingen kan leiden om bepaalde ziektes te bestrijden.

Computers kunnen via de LLM gericht worden om bepaalde klantgerichte vragen van een bedrijf te leren antwoorden. Die combinatie wordt dan toegepast in zgn. Chatbots, computers die communiceren. Klanten van grote bedrijven kunnen nauwelijks meer met een echte persoon praten. Je krijgt meestal eerst een Chatbot aan de lijn die standaardvragen beantwoordt en je pas doorverwijst naar een echte persoon wanneer ze vastloopt. Men verwacht dat miljoenen mensen, met name lager geschoolden, hun baan zullen verliezen aan machines die door A.I. worden aangestuurd. Aan de andere kant verwacht men juist meer jobs door de inzet van A.I.

Sam Altman en Elon Musk, oprichters van OpenAI

Gevaren van A.I.
De A.I. computers leren dus via de grote hoeveelheid tekst die op internet staat en die zij vele malen sneller kunnen doornemen dan een mens. Alleen kunnen ze niet onderscheiden wat echt en wat fake is en daardoor kan je vreemde antwoorden krijgen. En daar kan het dus goed mis gaan, omdat de antwoorden je ook weleens op een verkeerd spoor kunnen zetten. Daarnaast verwerven computers wel zgn. kennis, maar hebben ze geen ‘normen en waarden’ om op ethisch verantwoorde wijze besluiten te nemen. Ze hebben ook geen wijsheid om te onderscheiden wat in een bepaalde situatie liever anders aangepakt zou moeten worden. Indien dus steeds meer aan A.I. wordt overgelaten en de mens er niet meer aan te pas komt, kan je dus ook hele rare besluiten krijgen bijv. discriminerende besluiten.

Een ander probleem is dat de dure A.I. technologie niet democratisch verdeeld zal worden, maar in handen zal zijn van slechts enkele regeringen of enkele grote bedrijven. Zij hebben daarmee een voorsprong op de rest van de wereld en dat zal de ongelijkheid doen toenemen. Dat is een groter gevaar, wanneer deze bedrijven of regeringen slechts een beperkt belang nastreven.

Wapenindustrie en criminele organisaties
De kunstmatige intelligentie wordt ook gebruikt in de wapenindustrie, waarbij nu al wapens worden gemaakt die autonoom kunnen handelen. Als er geen menselijke aansturing meer is kan het hierbij goed mis gaan, want een autonoom wapen kan mogelijk de ‘good guys’ niet van de ‘bad guys’ onderscheiden en bijv. iedereen in de omgeving doodschieten. Of wat gebeurt er indien zulke wapens in handen van criminelen terecht komen, die bewust andere doelen gaan aanvallen. Of indien een bepaalde etnische groep het gaat inzetten om via herkenningsinstructies een andere etnische groep te elimineren. Ook samenlevingen kunnen ondermijnd worden door zgn. ‘deep fake news’ dat nauwelijks meer te onderscheiden is van echt nieuws of echte informatie. Men kan niet alleen foto’s en films manipuleren, maar zelfs de stem van individuele personen namaken, bijv. van een president, en zo misinformatie lanceren die een democratie kan sturen in een richting die helemaal niet bedoeld was.

Wat kan er gedaan worden om A.I. in goede banen te leiden?
Sam Altman en Elon Musk zijn de oprichters van OpenAI, één van de belangrijkste ontwikkelaars van kunstmatige intelligentie. De ChatGPT is door dit bedrijf ontwikkeld en wordt nu al gebruikt. Er is regulering nodig van A.I. en dit zal moeten komen van de grootste regeringen en bedrijven die de regulering ook kunnen afdwingen. Tegen deze achtergrond zijn Sam Altman en andere deskundigen recent uitgenodigd door een commissie van de Amerikaanse Senaat om hierover te praten. Het is een zeer leerrijke uitwisseling, die start met een toespraak van ChatGPT.
 
Marten Schalkwijk
Politiek analist
Advertenties

Sunday 05 May
Saturday 04 May
Friday 03 May