Maker ChatGPT neemt maatregelen aan start van groot verkiezingsjaar


NOS Nieuws

De maker van de geavanceerde tekstgenerator ChatGPT, OpenAI, heeft een reeks maatregelen aangekondigd waarmee het misbruik van zijn instruments rond verkiezingen wil tegengaan. 2024 wordt een ongekend groot verkiezingsjaar en OpenAI zal een situatie zoals 2016 willen voorkomen, waarbij techbedrijven werd verweten niet genoeg op te treden tegen desinformatie.

Vorige week nog doken op Fb advertenties op met nepvideo’s van de Britse premier Sunak, schrijft The Guardian. In de nepvideo roept Sunak op tot investeringen in een bepaald platform. Het ging volgens de krant om meer dan 100 advertenties die mogelijk 400.000 mensen hebben bereikt.

In brede zin zegt OpenAI zich voor te bereiden op het voorkomen van misbruik, zoals het maken van deepfakes, oftewel afbeeldingen of video’s gebaseerd op gemanipuleerd beeld met AI. Hetzelfde geldt voor grootschalige beïnvloedingscampagnes.

Trump of Biden

In de praktijk betekent het dat OpenAI’s afbeeldinggenerator DALL-E een verzoek om een afbeelding te maken van een verkiezingskandidaat, denk aan Trump of Biden, moet weigeren. Daarnaast mogen ontwikkelaars op foundation van technologie van OpenAI geen chatbots bouwen die zich voordoen als kandidaten of instituties zoals overheden.

Sander Duivestein, auteur van het boek Echt Nep, merkt op X op dat er op dit second numerous chatbots van Trump binnen OpenAI’s omgeving bestaan. Het is onduidelijk of die wel zijn toegestaan of onder dit nieuwe beleid alsnog worden verwijderd.

In maart van dit jaar gingen afbeeldingen viral die gemaakt waren met Midjourney, dat geen onderdeel is van OpenAI, waarin te zien was hoe Trump in New York werd gearresteerd. Sindsdien is de afbeeldingkwaliteit enorm verbeterd, waarmee het risico dat mensen het verschil tussen echt en nep niet meer kunnen onderscheiden steeds groter wordt.

Afbeeldingen herkennen

In dat kader check het bedrijf momenteel een methode om afbeeldingen die zijn gegenereerd door DALL-E als zodanig te herkennen. De eerste resultaten worden “veelbelovend” genoemd. Journalisten en onderzoekers krijgen er binnenkort toegang toe. Hoe dit precies werkt en – niet onbelangrijk – hoe accuraat het is, is nog niet duidelijk. Afgelopen zomer moest het bedrijf nog een herkenningstool offline halen omdat deze te vaak fouten maakt.

Het bedrijf erkent daarnaast dat het nog niet goed weet hoe “effectief” zijn instruments zijn in het overtuigen van mensen. “Totdat we meer weten, staan we het bouwen van apps voor politieke campagnes en lobbyen niet toe.”

Laat een reactie achter

Scroll naar boven