De LA Times vindt dat AI het werk van de opinieredactie wel kan doen De Los Angeles Times wil meer ruimte bieden aan uiteenlopende opinies. Daarbij speelt kunstmatige intelligentie een belangrijke rol, tot weerzin van experts. ‘Het geeft de lezer het signaal dat de krant haar eigen journalisten niet vertrouwt.
’ Correspondent in de Verenigde Staten (standplaats Los Angeles) De Amerikaanse krant Los Angeles Times publiceert sinds kort onder opiniestukken een lijstje met alternatieve standpunten, gegenereerd door kunstmatige intelligentie. Volgens eigenaar en multimiljardair Patrick Soon-Shiong maakt dit de opiniesectie ‘inclusiever’. Ook worden opinieartikelen door AI geanalyseerd om te bepalen welke politieke ideologie ze uitdragen: links, rechts, of ergens in het midden.
Dit oordeel staat bij de stukken, met als doel de transparantie te bevorderen. De door AI gegenereerde tekst en oordelen worden niet door mensen gecontroleerd op inhoud of taalgebruik. Ze gaan direct online.
Jeremy Gilbert, hoogleraar digitale mediastrategie aan Northwestern University, volgt de ontwikkelingen bij de LA Times met fascinatie en afschuw, zegt hij. “Ik heb nog nooit zoiets gezien. Ik snap de intentie, maar AI is geen neutrale partij.
” Volgens Gilbert wordt kunstmatige intelligentie iedere dag beter, maar is AI nog altijd verre van onfeilbaar. “Dus loop je het risico dat je desinformatie de wereld in helpt.” De nieuwe toepassing kwam in haar eerste week al onder vuur te liggen.
Onder een stuk over de geschiedenis van de racistische haatbeweging Ku Klux Klan (KKK) voegde de AI-toepassing toe dat de KKK op lokaal niveau soms simpelweg wordt gezien als bijproduct van de ‘witte protestantse cultuur’. Dit automatisch gegenereerde standpunt is inmiddels door de LA Times offline gehaald. In een ander voorbeeld, uitgelicht door de Britse krant The Guardian , wordt een stuk over pogingen van de regering-Trump om transgender soldaten te ontslaan, zonder verdere context aangevuld met een verklaring van het Witte Huis: ‘de transgender identiteit’ zou niet stroken met ‘militaire waarden’ zoals ‘nederigheid, integriteit en discipline’.
Dat de krant haar journalisten en columnisten op deze manier overlevert aan AI, verbaast Gilbert. “Het is net alsof de krant zegt: we vertrouwen onze eigen medewerkers niet, of niet voldoende.” Dat zou best kunnen kloppen, want eigenaar Soon-Shiong ligt al maandenlang met zijn eigen redactie in de clinch.
Hij blokkeerde de opinieredactie vorig jaar toen zij haar steun wilde uitspreken voor de Democratische presidentskandidaat Kamala Harris, wat hem een bedankje van Elon Musk opleverde. Meerdere medewerkers stapten op en sinds februari is er bij de krant geen opinieredacteur meer over. Aya Shata, hoogleraar digitale media aan University of Nevada, is bekend met Perplexity, de AI-toepassing die de LA Times gebruikt.
“Dit is een generieke tool, niet specifiek gebouwd voor nieuws.” De inzet ervan baart haar zorgen: “De vraag moet altijd zijn: wie traint en controleert deze AI? Want AI opereert niet vanuit kennis of ervaring. Het produceert niet, het kan enkel reproduceren.
” In de LA Times resulteerde dit in de publicatie van standpunten afkomstig uit een middelbareschoolkrant, een Turks staatsmedium, en van Wikipedia, blijkt uit een analyse van het Amerikaanse onderzoeksplatform Nieman Lab . Dat de informatie van willekeurige bronnen lijkt te komen, noemt Shata zorgelijk: “Het verifiëren van bronnen en hun betrouwbaarheid is een belangrijk onderdeel van wat een journalist doet, juist omdat journalistiek de publieke opinie beïnvloedt.” Het experiment van de LA Times , dat met 1,3 miljoen lezers per dag de grootste krant is aan de Amerikaanse westkust, kan volgens Jeremy Gilbert het vertrouwen van de lezers beschadigen.
“Het geeft de lezer het signaal dat de krant haar eigen journalisten niet vertrouwt.” Ook blijkt uit onderzoek dat mensen over het algemeen wars zijn van volledig automatisch gegenereerde content, aldus Gilbert. “Ze associëren het niet met hoge kwaliteit.
” Dit wil niet zeggen dat er geen plek is voor AI in de journalistiek, zegt Gilbert, die onder meer bij de krant The Washington Post heeft geëxperimenteerd met manieren om online een breder scala aan meningen te presenteren. “We gebruikten AI om aanbevelingen te doen voor stukken met andere perspectieven”, zegt hij. “Zodat onder een opiniecolumn met een pro-immigratiestandpunt bijvoorbeeld een link naar een kritische column werd geplaatst.
” Volgens Shata kan AI heel goed simpele, tijdrovende taken opvangen, zoals transcriptie. “Zo kunnen journalisten zich richten op werk dat creativiteit, journalistieke ervaring en emotionele intelligentie vereist. Werk waar je mens voor moet zijn.
” Veel mensen praten tegen een AI-chatbot alsof het een echte vriend of therapeut is. Dat kan niet alleen verslavend zijn, maar kan ook leiden tot gevaarlijke adviezen, waarschuwt de toezichthouder..
Bovenkant