Overslaan en naar de inhoud gaan

Musk, Wozniak en Harari pleiten voor AI-pauze

Meer dan duizend ondertekenaars van een open brief zijn bezorgd over het gebrek aan vangrails voor maatschappij-ontwrichtende AI-systemen.
ChatGPT Shutterstock
De website van ChatGPT
© Afbeelding: Shutterstock
ChatGPT Shutterstock
De website van ChatGPT
© Afbeelding: Shutterstock

Meer dan duizend mensen hebben een open brief ondertekend met de oproep een pauze in te lassen bij de ontwikkeling van steeds krachtigere kunstmatige intelligentie (AI). Onder andere Tesla-baas Elon Musk en medeoprichter van Apple Steve Wozniak maken zich zorgen over het gebrek aan vangrails voor het geval dat AI-systemen de maatschappij ontwrichten.

related partner content for mobile comes here

Concreet vragen de ondertekenaars aan ontwikkelaars van AI-systemen om zes maanden lang geen programma's te bouwen die krachtiger zijn dan GPT 4. Dat is de nieuwste versie van het taalmodel van OpenAI, dat ver gevorderd is met de ontwikkeling van generatieve AI. Daarbij creëren modellen voor kunstmatige intelligentie na eenvoudige aanwijzingen zelf complete teksten of beelden, bijvoorbeeld met de chatbot ChatGPT.

Musk, Wozniak, Israëlische historicus Yuval Noah Harari en andere opstellers van de brief waarschuwen onder andere voor de maatschappelijke gevolgen als veel mensen hun baan verliezen door krachtige AI-systemen. Daarnaast bestaat het risico dat deze programma's "onze informatiekanalen overspoelen met propaganda en onwaarheden".

"Moeten we alle banen automatiseren, inclusief het werk dat voldoening geeft? Zouden we niet-menselijk verstand moeten ontwikkelen dat ons uiteindelijk kan overklassen en vervangen? Moeten we het verlies van onze beschaving riskeren? Die beslissingen zouden niet moeten worden overgelaten aan niet-verkozen techmanagers", staat in de brief.

Protocollen

AI-onderzoekers en onafhankelijk experts zouden volgens de ondertekenaars samen algemene veiligheidsprotocollen moeten opstellen. Dat geheel aan regels, waar onafhankelijk toezicht op moet komen, moet ons ervan verzekeren dat nieuwe modellen voor kunstmatige intelligentie veilig zijn. Tegelijkertijd zouden overheden nieuwe instellingen moeten oprichten met de taak om toe te zien op de ontwikkeling van AI.

"Dit staat niet gelijk aan het opschorten van de ontwikkeling van AI in zijn algemeen, maar eerder een pas op de plaats bij de gevaarlijke wedloop richting steeds grotere, onvoorspelbare modellen met nieuwe capaciteiten", staat in de brief die woensdagmiddag door 1125 mensen was ondertekend.

Bron: ANP

Advertentie

Reacties:

Om een reactie achter te laten is een account vereist.

Inloggen Word lid

Melden als ongepast

Door u gemelde berichten worden door ons verwijderd indien ze niet voldoen aan onze gebruiksvoorwaarden.

Schrijvers van gemelde berichten zien niet wie de melding heeft gedaan.

Advertentie

Bevestig jouw e-mailadres

We hebben de bevestigingsmail naar %email% gestuurd.

Geen bevestigingsmail ontvangen? Controleer je spam folder. Niet in de spam, klik dan hier om een account aan te maken.

Er is iets mis gegaan

Helaas konden we op dit moment geen account voor je aanmaken. Probeer het later nog eens.

Word lid van Adformatie

Om dit topic te kunnen volgen, moet je lid zijn van Adformatie. 15.000 vakgenoten gingen jou al voor! Meld je ook aan met een persoonlijk of teamabonnement.

Ja, ik wil een persoonlijk abonnement Ja, ik wil een teamabonnement
Al lid? Log hier in

Word lid van Adformatie

Om dit artikel te kunnen liken, moet je lid zijn van Adformatie. 15.000 vakgenoten gingen jou al voor! Meld je ook aan met een persoonlijk of teamabonnement.

Ja, ik wil een persoonlijk abonnement Ja, ik wil een teamabonnement
Al lid? Log hier in