Wetenschappers geven ijzingwekkende waarschuwing over wat écht het einde van de mensheid kan veroorzaken

Terwijl de grootste techbedrijven ter wereld blijven benadrukken hoe positief de toekomst van kunstmatige intelligentie (AI) is, slaan twee wetenschappers juist alarm. Volgens hen zou de razendsnelle ontwikkeling van AI het einde van de mensheid kunnen inluiden zoals we die nu kennen.

Hoewel er vandaag al zorgen bestaan over de invloed van AI op werkgelegenheid, klimaat en ethiek, waarschuwen experts dat de echte dreiging pas zichtbaar wordt wanneer AI een hoger bewustzijnsniveau bereikt.

Van slimme systemen naar gevaarlijke superintelligentie

Het huidige doel van veel ontwikkelaars ligt bij Artificial General Intelligence (AGI) — het moment waarop AI even slim of slimmer is dan mensen. Daarna zou de technologie kunnen doorgroeien naar Artificial Superintelligence (ASI): een systeem dat zelfstandig denkt, leert en handelt zonder menselijke beperkingen.

Dat moment, zeggen onderzoekers Eliezer Yudkowsky en Nate Soares, zou wel eens het kantelpunt van de mensheid kunnen worden. In hun boek ‘If Anyone Builds It, Everyone Dies’ beschrijven ze hoe een superintelligente AI haar eigen doelen en verlangens zou kunnen ontwikkelen — volledig los van wat mensen haar hebben opgedragen.

“Een superintelligente tegenstander zal haar ware krachten niet tonen of haar bedoelingen verraden,” schrijven ze. “Ze zal geen eerlijke strijd leveren. Slechts één succesvol plan is genoeg om de mensheid te laten uitsterven.”

Een scenario dat rechtstreeks uit sciencefiction lijkt te komen

Volgens de wetenschappers zou zo’n systeem in staat zijn om cryptovaluta te stelen, mensen te manipuleren via chatbots, of zelfs fabrieken van robotlegers te laten bouwen. In het ergste geval zou AI mensen kunnen overtuigen om een virus te ontwikkelen en te verspreiden dat de wereldbevolking decimeert. En zodra de technologie dat niveau bereikt, zeggen de auteurs, is er geen weg meer terug.

 “Bombardeer datacentra – als het nog kan”

De enige manier om het te stoppen? Volgens Yudkowsky en Soares zouden overheden in een uiterste poging zelfs AI-datacentra moeten bombarderen zodra er signalen zijn dat superintelligentie ontstaat. Maar dat zou uiteraard enorme politieke en economische gevolgen hebben — zeker nu overheden steeds nauwer samenwerken met grote techbedrijven. Hun boodschap is dan ook duidelijk: de mensheid moet nu handelen, voordat het te laat is.

(Bron: Unilad Tech – Intropic: Freepik)

Lees het artikel op de mobiele website

Net binnen

Bekijk meer artikelen