Menu
Vereniging Trainingen Media VNVA events

ChatGPT en AI

Op 23 april 2024 zat in het achtuurjournaal-nieuws de opkomst van een AI-app (Udio) die muziek componeert met teksten aan de hand van enkele kernwoorden en keuze muziekstijl. De twee muzikanten vrezen voor hun toekomst wat betreft inkomsten, hun werk. Op 24 april bericht het AD dat bekende artiesten bezorgd zijn over hun stemkloon. De NRC van 26 april laat een promovendus uit India aan het woord, die met behulp van AI een robot sociaal probeert te maken. Dagelijks zijn er AI-berichten ook in pushmeldingen op ‘socials’.

Manoïde robots te koop

Humanoïde robots te koop

Definitie van Artificiële Intelligentie: computersystemen die in meer of mindere mate zelfstandig acties kunnen ondernemen met een specifiek doel. In die zin vertonen AI-systemen intelligent gedrag: ze kunnen taken uitvoeren waarvoor een zekere intelligentie vereist is. [Wetenschappelijke Raad voor het Regeringsbeleid (WRR)]. OpenAI is de naam van het bedrijf dat ChatGPT ontwikkelde en blijft verbeteren.

Voordat ChatGPT openbaar werd (eind 2022), had Sam Altman, CEO van OpenAI, zorgen over verschillende aspecten van de technologie en de mogelijke implicaties ervan voor de samenleving. Opgehaald met ChatGPT, dat waren onderstaande punten:

  1. Ethiek en Veiligheid

    Altman was bezorgd over hoe deze technologieën kunnen worden gebruikt en misbruikt, vooral als het gaat om het verspreiden van misinformatie, het manipuleren van meningen of het inbreuk maken op privacy.

  2. Gelijke toegang tot AI-technologie

    Hij was zich bewust van de kloof in toegang tot AI-technologie tussen verschillende gemeenschappen en regio's. Hij wilde ervoor zorgen dat geavanceerde AI-systemen niet alleen beschikbaar waren voor een kleine groep, maar ook positieve impact konden hebben op een bredere schaal.

  3. Verantwoorde ontwikkeling van AI

    Altman wilde ervoor zorgen dat AI-technologieën werden ingezet met respect voor menselijke waarden en rechten.

  4. Toekomstige implicaties

    Zijn zorgen over de lange termijn-implicaties van AI-ontwikkelingen betroffen onder meer werkgelegenheid, sociale stabiliteit en de bredere gevolgen voor de mensheid. Hij wilde een actieve rol spelen in het sturen van de ontwikkeling van AI om positieve resultaten te maximaliseren en negatieve gevolgen te minimaliseren

Deze zorgen waren een drijvende kracht achter de missie van OpenAI om AI te ontwikkelen en te verspreiden op een manier die veilig, eerlijk en nuttig is voor iedereen.
Sam Altman werd weggestuurd en kwam weer terug, maar daar gaat het hier niet over.
Inmiddels is er ChatGPT, Consensus, Copilot, Gemini, Helpmewrite, Petal en veel meer in ontwikkeling. Voor zover er een idee van te krijgen is: wat is nu de stand van zaken wat betreft de zorgen van Altman?

1. Ethiek en Veiligheid

Vooroordelen, manipulatie door nepnieuws, inbreuk op pivacy

Door de eeuwen heen waren het witte manen die dominant waren in het geschreven woord. Om die reden is AI het meest getraind met teksten en foto’s van mannen. Hun vooroordelen kunnen terugkomen in hetgeen met AI gegenereerd wordt.
Kort na de introductie van chatGPT-3 waren er voorbeelden van negatieve vooroordelen over moslims. Dat probleem van deze softwaregeneratie zou inmiddels opgelost zijn.
Data bias (incomplete of inaccurate data) als beperking van ChatGPT blijft, maar kan kennelijk manipulatief (met de hand) verbeterd worden. Zo lang er onafhankelijk wetenschappelijk onderzoek gedaan blijft worden, passend bij de tijdgeest en zonder vooroordelen, lijkt dat niet het grootste probleem.
Ontwikkelaars hebben een goede maatschappelijk sensor nodig omdat de samenleving verandert en begrippen in de taal veranderen.
Onwaarheid past nooit in antwoorden van ChatGPT dus mag het systeem niet met malafide data gevoed worden.
Op 14 maart 2024 werd de AI-verordening aangenomen door het Europees Parlement (volgens Art. 93 geldig vanaf 17 februari 2024).
Daarmee loopt Europa voor op de VS en China. De komende 2 jaar gaat deze verordening gefaseerd van kracht worden. Voor toepassing en handhaving ervan moeten lidstaten een of meer nationale autoriteiten aanwijzen die belast worden met het toezicht op de toepassing van de regels en op de markt. Ook komt er een Europees AI comité en een Europees AI-bureau, ondersteund door een wetenschappelijk panel van onafhankelijke deskundigen om toezicht te houden op AI-modellen voor algemene doeleinden.
AI-systemen met een onaanvaardbaar risico voor de mens worden verboden (kader)

Verboden worden:

  • cognitieve gedragsmanipulatie van personen of specifieke kwetsbare groepen: bijvoorbeeld speelgoed dat reageert op een stem en dat bij kinderen gevaarlijk gedrag uitlokt;
  • sociale scoring: het classificeren van mensen op basis van hun gedrag, sociaal-economische status of persoonlijke kenmerken;
  • Biometrische identificatie en categorisering van natuurlijke personen
  • Biometrische systemen voor identificatie op afstand in eal time, zoals gezichtsherkenning

Deepfake moet met wet- en regelgeving bestreden worden, zo zeggen AI-experts; het zou de enige manier zijn om Tech bedrijven verantwoordelijk te stellen voor schade door audio en videosoftware. Bedrijven kunnen en moeten hun software zo ontwerpen dat het niet mogelijk is om pornovideo’s te construeren. Technisch kan dat door stemklonen en nepvideo’s te voorzien van een watermerk. (De VS heeft kenbaar gemaakt dat ze zo’n watermerk verplicht gaan stellen om op die manier de toename van nepnieuws tegen te gaan).
Met de FIND-functie is in de EU-Act niets te vinden over een watermark. Mogelijk zijn er meer technische uitvoeringsvormen, of de EU vindt dat te specifiek voor de wettekst.
In elk geval kunnen en moeten overheden ervoor gaan zorgen dat al het overheidsnieuws digitaal gewaarmerkt is.

Genoemde punten onder ethiek en veiligheid worden door de EU-Act duidelijk ingekaderd en strafbaar bij overtreding.
OpenAI is wereldwijd beschikbaar deze en volgende punten van bezorgdheid van Altman vragen er om op wereldschaal hierover na te denken.


2. Gelijke toegang tot AI-technologie

Gelijke toegang tot AI is voorlopig niet mogelijk.
Marietje Schaake schreef begin 2021:
“De voortgang in kunstmatige intelligentie maakt helder hoezeer ‘beschikbare’ taal in het voordeel is van de gevestigde orde en de meest geprivilegieerde en machtige mensen”.

In Indonesië stelde men zich de vraag of ze ChatGPT zouden moeten blokkeren?
Op basis van wetenschappelijk onderzoek was de conclusie medio september 2023 dat Indonesië zo’n blokkade alleen profijt heeft bij het voorrang geven aan het verbeteren van de digitale geletterdheid en het vormen van regionale samenwerkingsverbanden.


Mensen kunnen wegkomen uit armoede dankzij technologie. Denk aan de mobiele telefoon: toen deze bij ons door begon te breken gingen ook vliegtuigladingen vol met goedkope Chinese mobieltjes naar Liberia. Een typisch voorbeeld van “leap-frogging”: overal in de wereld werden voorgaande generaties vaste telefoon overgeslagen (De zwarte bakelieten draaischijftelefoon is trouwens nog steeds te koop vanaf €40,50). Het onderwijs in minder ontwikkelde landen is en wordt enorm geholpen door ICT. Hetzelfde zal gebeuren door ChatGPT. Daarvoor moet je al enige basis digitale vaardigheid hebben. Dat geldt ook in Nederland. Vraag is of iedereen die straks haasje-over-springt voldoende contextkennis heeft om waar en onwaar te onderscheiden.

Indonesië koos voor een Nationale AI Strategie 2020-2045 als basis voor AI-groei, door samenwerking tussen overheid, industrie, universiteiten en samenleving. Verwacht wordt dat AI over 10 jaar 366 miljard dollar zal bijdragen aan het Bruto Binnenlands Product van Indonesië.

Maakt AI de verschillen tussen landen groter?
Maakt AI de verschillen binnen een land groter?
Beide vragen beantwoord ik nu met ja. Dit met de veronderstelling dat er over 10 jaar minder armoede en meer duurzaamheid zal zijn op de wereld - mede dankzij AI.
Bovenal belangrijk blijft dat overheden beleid maken en implementeren, dat inclusieve groei en gelijke kansen bevordert.

3. Verantwoorde ontwikkeling van AI

Respect voor menselijke waardigheid en rechten gaat over privacybescherming en verantwoordelijkheid. Onder punt 1 (ethiek en veiligheid) werd ingegaan op privacybescherming en de Europese AI-Act. Met de experts en met onze demissionaire staatssecretaris van Huffelen ben ik van mening dat het niet anders kan dan dit te waarborgen door middel van wetgeving en sancties die gevoeld worden. De bedragen die een eurocommissaris aan boetes kan opleggen kunnen gigantisch zijn.

Databases combineren voor nieuwe software kan noodzakelijk en behulpzaam zijn, bijvoorbeeld bij opsporing. Wanneer iemand schade lijdt of benadeeld wordt omdat hij op een verkeerde lijst terecht kwam, dan is het vrijwel onmogelijk dat hersteld te krijgen. Om dat via de rechter af te dwingen is voor de meeste mensen al een horde te veel.

Als particulier en als klein bedrijf sta je machteloos bij een misstand of een misser niet alleen omdat onduidelijk is wie verantwoordelijk is, maar ook omdat weinig mensen in staat zijn een code of algoritme binnen de software aan te wijzen die eraan ten grondslag ligt dat er ene misstand is. Dat vraagt ook kennis van de ontwerpspecificaties en de context waarbinnen en waartoe software geschreven werd. Ook kan er een ontwerpfout zijn gemaakt. Bijvoorbeeld: het feit dat meer dan 5000 gezinnen in Nederland onder het bestaansminimum leven doordat regelingen van de overheid tegen elkaar in werken. Dit probleem werd in 2016 al gesignaleerd door de ombudsman en het wordt erkend maar het is zover ik weet nog niet opgelost.

Er zullen spanningsvelden blijven – hoe en wanneer AI-technologie ingezet mag worden met respect voor menselijke waarden en voor hun rechten. Menselijke waardigheid is een kwetsbare waardigheid. Ons rechtssysteem, zal bevraagd blijven worden door mensen die last hebben van het feit dat ze onterecht in een database terecht kwamen voor het detecteren van groepen met een hoog risicogedrag (fraude, jihadisme).
Ethische AI blijft gaan over wat geaccepteerd wordt binnen de samenleving soms op de grens van wet- en regelgeving. Wet- en regelgeving vragen inherent om transparantie en aansprakelijkheid.

4. Toekomstige implicaties

De mogelijkheden van AI op termijn zijn grenzeloos doordat de aanjagers van AI elkaar blijven versterken. Die aanjagers van AI zijn (WRR): doorbraken in de wetenschap, grotere rekenkracht en meer data.

Langetermijn-implicaties van automatisering op werkgelegenheid werd al eerder (voor de AI-ontwikkelingen) onderkend en wel onder de term “baanloze groei”. Voorspellingen zonder tijdas (bv kwart van de banen tgv AI verdwijnen) zijn betekenisloos zonder erbij een jaartal te noemen. Duidelijk is wel dat het alle sectoren aangaat zij het wisselend qua tempo.
Toekomstige invloed van AI op de sociale stabiliteit is niet voorspelbaar.
De sleutel lijkt me in handen van ouders en onderwijsinstellingen.

Neemt de cognitie van mensen op den duur af door AI?
Feit is dat door het mobiel we nauwelijks nog telefoonnummers van buiten kennen. Door TomTom en allerlei reisapps hebben we steeds minder geografische kennis paraat.
Het lijkt logisch dat reproduceerbare feitenkennis afneemt want alles wat je wilt weten kun je vragen aan je mobiel en je krijgt het antwoord sneller dan dat een mens dat zou kunnen geven (in elke taal, overal waar je bent).
Wat kan en moet het brein van mensen straks kennen en kunnen? Is dat meetbaar?
Wat als t.g.v. AI op den duur ons brein verandert, is een vraag voor neurowetenschappers die nog geboren moeten worden.

Door te speuren op websites werd ik eerder minder dan meer bezorgd over AI.
Het is niet de AI zelf waarover bezorgdheid moet bestaan; het is de tijd en de competitiedrang die ons zorgen moet baren. 1. Tijd om met wet- en regelgeving voldoende kaders aan te brengen, en 2. competitiedrang die het geduld wreed verstoord om het eerste goed gedaan te krijgen. Een groeiproces met kleine stappen: kan dat in de wereld anno nu?
AI-wetenschapper Stuart Russell zei:
“Zelfs wanneer de organisatie (OpenAI) de belangen van de mensheid in overweging neemt, deze belangen worden overschaduwd door financiële overwegingen. Alleen regeringen kunnen de belangen van de mensheid beschermen.”
Kortom, hoe eerder de VS en China volgen met een AI-Act hoe beter. Samengevat:
de mensheid heeft vangrails nodig.

Een ICT-er die dit las waarschuwde voor het ‘Gell-man Amnesia effect’: de neiging media te vertrouwen op gebieden waarin het je ontbreekt aan expertise - ondanks dat je zwaktes erkent. Om die reden, en naar aanleiding van het interview met Sam Altman, ter afsluiting een citaat van Haroon Sheikh,senior onderzoeker bij de WRR en bijzonder hoogleraar filosofie aan de VU:
“Wanneer technologische gevaren bestreden worden met meer technologie, verliezen we de menselijke maat steeds verder uit het oog en wordt het echte gevaar van AI inderdaad dat wij het gevaar niet meer kunnen zien.”

Bronnen

https://www.ad.nl/show/ai-app-udio-verwijdert-aantal-liedjes-nederlandse-artiesten-krijgen-aanbod-voor-samenwerking~abce54e6/?referrer=https%3A%2F%2Fwww.google.com%2F
https://www.wrr.nl/publicaties/rapporten/2021/11/11/opgave-ai-de-nieuwe-systeemtechnologie
https://www.nrc.nl/nieuws/2024/04/25/een-sociale-robot-hoeft-er-niet-uit-te-zien-als-een-mens-a4196915

https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=CELEX%3A32022R2065&qid=1714201867476

https://artificialintelligenceact.eu/ai-act-explorer/
https://openletter.net/l/disrupting-deepfakes

https://www.nrc.nl/nieuws/2021/02/18/de-computer-leert-de-taal-en-de-vooroordelen-a4032418
https://www.e3s-conferences.org/articles/e3sconf/abs/2023/63/e3sconf_icobar23_02046/e3sconf_icobar23_02046.html (Indonesië) https://east.vc/news/insights/artificial-intelligence-in-indonesia-the-current-state-and-its-opportunities/ - :~:text=In the education sector, Indonesia,, called Roboguru, since 2021.
https://www.nrc.nl/nieuws/2023/11/24/nu-sam-altman-terug-is-rest-de-vraag-wat-nu-a4182252 - :~:text=Volgens AI-wetenschapper Stuart Russell,belangen van de mensheid beschermen.”
https://thebasics.guide/gell-mann-amnesia-effect/
https://www.nrc.nl/nieuws/2024/02/16/het-echte-gevaar-van-ai-is-dat-wij-het-gevaar-niet-meer-kunnen-zien-a4190334
https://www.youtube.com/watch?v=L_Guz73e6fw (interview Sam Altman)

Sluiten
X Zoek