Reserveer je plek voor de najaars zwerftocht door Berlijn. Nu vroegboekkorting!

AI-experts: maak pas op de plaats met ontwikkeling AI

Laatst bijgewerkt:

Meer dan 1.000 deskundigen, onderzoekers en voorstanders van kunstmatige intelligentie hebben zich aangesloten bij een oproep om de creatie van “reuzen”-AI’s onmiddellijk voor minstens zes maanden op te schorten, zodat de mogelijkheden en gevaren van systemen als GPT-4 goed kunnen worden bestudeerd en beperkt. De eis staat in een open brief, ondertekend door belangrijke AI-spelers, waaronder: Elon Musk, medeoprichter van OpenAI, het onderzoekslab dat verantwoordelijk is voor ChatGPT en GPT-4; Emad Mostaque, oprichter van het in Londen gevestigde Stability AI; en Steve Wozniak, medeoprichter van Apple.

Foto: Foto: Pixabay

In een open brief die al meer dan 1.000 door experts uit de branche van ICT en kunstmatige intelligentie is ondertekend schrijven zij:

AI-systemen met menselijke concurrerende intelligentie kunnen grote risico’s inhouden voor de samenleving en de mensheid, zoals blijkt uit uitgebreid onderzoek en wordt erkend door de beste AI-laboratoria. Zoals gesteld in de algemeen onderschreven Asilomar AI Principles, zou geavanceerde AI een ingrijpende verandering kunnen betekenen in de geschiedenis van het leven op aarde, en zou deze met gepaste zorg en middelen moeten worden gepland en beheerd. Helaas gebeurt dit niveau van planning en beheer niet, ook al zijn AI-laboratoria de afgelopen maanden verwikkeld geraakt in een uit de hand gelopen race om steeds krachtigere digitale breinen te ontwikkelen en in te zetten die niemand – zelfs hun makers niet – kan begrijpen, voorspellen of betrouwbaar controleren.

Hedendaagse AI-systemen worden nu menselijk concurrerend in algemene taken, en we moeten ons afvragen: Moeten we machines onze informatiekanalen laten overspoelen met propaganda en onwaarheid? Moeten we alle banen automatiseren, ook de vervullende? Moeten we niet-menselijke geesten ontwikkelen die ons uiteindelijk zouden kunnen overtreffen, te slim af zijn, verouderen en vervangen? Moeten we het risico lopen de controle over onze beschaving te verliezen? Dergelijke beslissingen mogen niet worden gedelegeerd aan ongekozen technische leiders. Krachtige AI-systemen mogen pas worden ontwikkeld als we ervan overtuigd zijn dat hun effecten positief zullen zijn en hun risico’s beheersbaar. Dit vertrouwen moet goed onderbouwd zijn en toenemen met de omvang van de potentiële effecten van een systeem.


In de recente verklaring van OpenAI over kunstmatige algemene intelligentie staat: “Op een gegeven moment kan het belangrijk zijn om een onafhankelijke beoordeling te krijgen voordat wordt begonnen met het trainen van toekomstige systemen, en voor de meest geavanceerde inspanningen om overeen te komen om de groeisnelheid van de computer die wordt gebruikt voor het creëren van nieuwe modellen te beperken.” Wij zijn het daarmee eens. Dat punt is nu aangebroken.
Daarom roepen wij alle AI-laboratoria op om de training van AI-systemen die krachtiger zijn dan GPT-4 onmiddellijk voor minstens 6 maanden te onderbreken. Deze pauze moet openbaar en controleerbaar zijn en alle belangrijke actoren omvatten. Als een dergelijke pauze niet snel kan worden ingevoerd, moeten regeringen ingrijpen en een moratorium instellen.


AI-laboratoria en onafhankelijke deskundigen moeten deze pauze gebruiken om gezamenlijk een reeks gemeenschappelijke veiligheidsprotocollen voor het ontwerp en de ontwikkeling van geavanceerde AI te ontwikkelen en toe te passen, die streng worden gecontroleerd en gecontroleerd door onafhankelijke externe deskundigen. Deze protocollen moeten ervoor zorgen dat systemen die zich eraan houden zonder enige twijfel veilig zijn.[4] Dit betekent geen pauze in de ontwikkeling van AI in het algemeen, maar slechts een stap terug van de gevaarlijke wedloop naar steeds grotere onvoorspelbare black-box modellen met opkomende capaciteiten.


AI-onderzoek en -ontwikkeling moeten zich opnieuw richten op het nauwkeuriger, veiliger, begrijpelijker, transparanter, robuuster, beter op elkaar afgestemd, betrouwbaarder en loyaler maken van de huidige krachtige, geavanceerde systemen.
Tegelijkertijd moeten AI-ontwikkelaars samenwerken met beleidsmakers om de ontwikkeling van robuuste AI-governancesystemen drastisch te versnellen. Deze moeten ten minste omvatten: nieuwe en capabele regelgevende instanties die zich met AI bezighouden; toezicht op en tracering van zeer capabele AI-systemen en grote pools van rekencapaciteit; herkomst- en watermerksystemen om echt van synthetisch te kunnen onderscheiden en modellekken op te sporen; een robuust audit- en certificatie-ecosysteem; aansprakelijkheid voor door AI veroorzaakte schade; solide overheidsfinanciering voor technisch AI-veiligheidsonderzoek; en goed toegeruste instellingen om de dramatische economische en politieke verstoringen (met name van de democratie) die AI zal veroorzaken, het hoofd te kunnen bieden.


De mensheid kan een bloeiende toekomst tegemoet gaan met AI. Nu we erin geslaagd zijn krachtige AI-systemen te creëren, kunnen we genieten van een “AI-zomer” waarin we de vruchten plukken, deze systemen zodanig ontwikkelen dat iedereen er baat bij heeft en de samenleving de kans krijgt zich aan te passen. De samenleving heeft andere technologieën met potentieel catastrofale gevolgen voor de samenleving op pauze gezet. Dat kunnen we hier ook doen. Laten we genieten van een lange AI-zomer en ons niet onvoorbereid in de herfst storten.”

Brief met lijst van ondertekenaars

Commentaar

Het doet vreemd aan om voorstanders en ontwikkelaars van kunstmatige intelligentie (A.I.) te zien pleiten voor een pauze in de ontwikkeling van A.I. De motivatie kan gezocht worden in oprechte zorg over de snelheid waarmee A.I. zich ontwikkelt. Misschien spelen er ook zakelijke belangen. De vraag is of het onderbreken van dit proces nog mogelijk is .
A.I. zit het menselijke brein op de hielen. Hun verwachting is dat het niet lang meer zal duren dat A.I. menselijke taken gaat overnemen en de ‘beslissingen’ die een dergelijk systeem neemt niet meer te beïnvloeden zijn.
Duidelijk is dat deze ontwikkeling grote risico’s met zich meebrengt. Denk bijvoorbeeld aan de nu op sociale media circulerende video’s en foto’s van de arrestatie van Donald Trump of Jo Biden. Beide situaties zijn volkomen vals. Wie goed kijkt kan dat nu nog zien, nog wel. Wat als zo’n beeld door A.I. wordt gemaakt van de moord op een van beide, beelden die dan in minuten de wereld rondgaan. Het kan opstanden of zelfs oorlogen uitlokken.

A.I. kan wel handelen, maar wie is verantwoordelijk voor de gevolgen van een handeling? Een A.I. gestuurde robot kan een moord plegen. Maar wie wordt gestraft, kan een dader gevonden worden als A.I. het ‘besluit’ zelfstandig heeft genomen? Met de nu populaire stroming in elitaire kringen van het transhumanisme waarbij via implantaten de mens gekoppeld wordt aan een datanetwerk, kan A.I. de nu al labiele mensheid in grote problemen brengen.

Deze website wordt door de leverancier van de software (WordPress) nu automatisch (en ongevraagd) voorzien van een ‘A.I.-assistent’. Maar lezers van EZAZ mogen er vanuit gaan dat ALLE teksten op deze website 100% door een mens zijn geconcipieerd en geschreven.

Onder een kort statement van Elon Musk over A.I.

https://youtu.be/eg9qDjws_bU
AI-experts: maak pas op de plaats met ontwikkeling AI
Uw oordeel over dit artikel0 Stemmen
0
0
image_printDownload PDF en print