Zijn we er tóch ingetuind? Een brief over AI blijkt zelf geen ziel te hebben

Er zijn dagen waarop verschillende zegswijzen waarmee het menselijk taalvermogen orde probeert te scheppen in de chaos van de wereld tegelijk van toepassing zijn.

featured-image

Er zijn dagen waarop verschillende zegswijzen waarmee het menselijk taalvermogen orde probeert te scheppen in de chaos van de wereld tegelijk van toepassing zijn. Deze week gold dat voor het gouden trio ‘je gaat het pas zien als je het doorhebt ’, ‘de dag die je wist dat zou komen is eindelijk daar ’ en: ‘zijn we er tóch ingetuind ?’. Aanleiding voor die gedachten was de zogeheten ‘hoofdbrief’ op de opiniepagina’s van maandag 25 november.

Daarin waarschuwde lezer Bobby Hazeleger tegen door artificiële intelligentie geschapen kunst, die de ziel van de kunst bedreigt. Immers: „Kunst is niet enkel vorm, het is de stem van de maker, het verhaal van het persoonlijke lijden en de triomf, het onvolmaakte dat onze eigen sterfelijkheid weerspiegelt.” Daags na publicatie meldden zich twee nieuwe ingezonden-brievenschrijvers.



Zij stelden dat de brief niet alleen over AI ging, maar ook het werk van AI was. Een van hen schreef de tekst te hebben laten controleren door de AI-opsporingstool die hij als docent geschiedenis gebruikte: dit is voor 97 procent zeker het werk van een machine, concludeerde deze machine. Inderdaad is de brief bij kritische herlezing ( je gaat het pas zien als je het doorhebt ) een tekst waarin met bandeloze metaforiek een welbeschouwd vrij dunne inhoud aan de man wordt gebracht.

Maar goed, dat gebeurt auteurs van vlees en bloed ook wel eens. De opinieredactie haalde de tekst vervolgens zelf door twee AI-ontmaskeringstools. De ene meende er voor 100 procent zeker van te zijn dat het hier een product van AI betrof, de andere vermoedde mensenwerk: slechts 39 procent kans op AI.

Intussen was het de opinieredactie opgevallen dat er over de drie brievenschrijvers online weinig te achterhalen was. Enige mails en een telefoontje verder bleek dat de drie teksten door dezelfde persoon naar NRC waren gestuurd, die de redactie er via een foto van zijn identiteitsbewijs van overtuigde dat hij inderdaad Bobby Hazeleger heette. De eerste tekst was gegenereerd door het schrijfprogramma ChatGPT, aan het werk gezet met de aansporing om „veel metaforen, dure woorden en poëtische zinsconstructies” te gebruiken.

Zeker dat laatste had het programma goed in de virtuele oren geknoopt. De brievenrubriek is niet bedoeld voor al dan niet uit zorg voor de kunst voortgekomen practical jokes . NRC wil daar teksten van mensen, zegt chef Opinie Lotfi el Hamidi.

„Deze is er doorheen geglipt.” Afgelopen zomer werd een opinie-artikel niet geplaatst omdat de redactie vermoedde dat het door de computer was gegenereerd en de auteur niet reageerde op vragen daarover. Twee maanden geleden vertelde internetondernemer Alexander Klöpping dat hij door AI geschreven brieven naar enkele kranten had gestuurd, maar dat NRC die brieven niet had geplaatst.

Dat de opkomst van ChatGPT er uiteindelijk toe zou leiden dat automatisch gegenereerde teksten de opiniepagina’s zouden halen, was onvermijdelijk, zegt El Hamidi. „Je kunt je afvragen hoe erg dat losse feit is. In de praktijk plaatsen we ook verhalen van politici of anderen die hun voorlichters aan het werk hebben gezet.

De hoofdzaak is dat er een afzender is die verantwoordelijkheid neemt voor de tekst.” Die afzender bleek in dit geval in orde, maar dat stelde de redactie pas vast nadat de brief was gepubliceerd. De standaardprocedure is dat inzenders van bijdragen naar opinie@nrc.

nl in een automatisch verstuurd bericht wordt gevraagd om hun adresgegevens en telefoonnummer te sturen, voor zover ze dat niet al hebben gedaan – anonieme brieven worden niet, of alleen „ bij zeer hoge uitzondering ” geplaatst. In de praktijk – en zeker bij drukte – worden er ook brieven geplaatst zonder dat de adresgegevens bekend zijn (en dus zonder de mogelijkheid is om iemands identiteit na te gaan door even op te bellen). Of er nagebeld of -gemaild wordt, hangt nu vooral af van de vraag of een brief dan wel de naam van de afzender vragen oproept.

Dat moet beter, vindt ook de opinieredactie. Die wil briefschrijvers laten weten dat hun inzendingen pas geplaatst kunnen worden als de contactgegevens bij de redactie bekend zijn. Dat lijkt me een terechte maatregel; juist in een tijd waarin mensen in een handomdraai een mailadres kunnen aanmaken en de wereld vanachter dat masker met hun ideeën kunnen bestoken, verwacht je van een nieuwsmedium meer garanties dan van een willekeurig socialemediakanaal.

Dan blijft over de vraag naar het gebruik van AI-toepassingen bij het schrijven. Controle op het totstandkomingsproces van lezersbrieven lijkt me daarbij een illusie. Voor journalisten van NRC zijn eerder dit jaar nieuwe aanwijzingen opgenomen in de NRC Code .

Daarin staat onder meer: „ NRC -journalisten (dit geldt allemaal ook voor medewerkers) gebruiken kunstmatige intelligentie niet als bron van informatie. Wat wel kan is AI-toepassingen inzetten om bronmateriaal te analyseren, bewerken of ordenen.” De leidende gedachte achter het lemma is dat de mens de baas moet blijven.

„Redacteuren [kunnen] generatieve AI gebruiken om suggesties te doen voor koppen, slechtlopende zinnen en andere tekstverwerkingshandelingen.” Wat adjunct-hoofdredacteur Lucas Brouwers betreft kan kunstmatige intelligentie tijdens het schrijven nuttig zijn als „ sparring partner ”. Dat lijkt ook voor schrijvers van ingezonden brieven een nuttige aanwijzing.

Maar kijk vooral ook even naar de suggesties die NRC zelf geeft op de site : „Zit u vast? Worden de zinnen stroperig? De oplossing: begin opnieuw, maar schrijf nu uw verhaal op zoals u het aan uw vrienden zou vertellen.” Dat leidt ongetwijfeld tot een betere brief dan eentje die leunt op „veel metaforen, dure woorden en poëtische zinsconstructies”. Arjen Fortuin Reacties: ombudsman@nrc.

nl.