ChatGPT beschuldigt lector van transfobe opmerkingen en extreem-rechtse sympathieën

Tot zijn schrik leest lector Florian Cramer dat ChatGPT stelt dat hij transfobe uitspraken deed en extreem-rechtse denkbeelden verspreidde op een rechtse conferentie. Spoiler: hij is niet transfoob of extreem-rechts, en de bedoelde conferentie is door de AI-tool uit zijn duim gezogen. Wat gaat hier mis en hoe erg moeten we op onze hoede zijn voor ChatGPT en soortgenoten? “ChatGPT is geen kennissysteem maar een taalmodel, met als uitgangspunt dat het overtuigend moet kunnen praten”, stelt Cramer meteen aan het begin van het gesprek. “Ik spreek ook liever van machine learning dan van ‘intelligentie’. Het principe is dat van neurale netwerken, en op basis van stochastiek (een variant van waarschijnlijkheidsrekening, red.) en een statistisch model kijkt het naar waarschijnlijkheid van samenhang tussen A en B; neurale netwerken kunnen correlaties herkennen maar geen causaliteiten.” Zo’n systeem kun je vergelijken, legt Cramer uit met een metafoor van MIT-hoogleraar Aleksander Madry, met een luie student die niet de stof bestudeert voor een toets, maar zich wat steekwoorden eigen maakt op basis van een hoop oude toetsen en op die manier een voldoende probeert te halen. Als ChatGPT of soortgelijke ‘intelligente’ systemen weinig informatie hebben, gaan ze op basis van enkele gegevens een verhaal construeren. Zo kwam het dus dat Cramer op zijn vraag “Waar is Florian Cramer omstreden voor?” verrast werd met de beweringen dat hij in 2019 transfobe opmerkingen heeft gemaakt op een conferentie genaamd “The Politics of the Algorithm” in Het Nieuwe Instituut en politieke uitspraken heeft gedaan die geïnterpreteerd zouden kunnen worden als sympathie voor extreem-rechtse denkbeelden. Maar de grap is dat die conferentie door ChatGPT is verzonnen. En Cramer heeft over extreem-rechtse ideeën gepubliceerd, maar hangt ze zelf niet aan. ChatGPT heeft de klok horen luiden, en hangt vervolgens de klepel op een bizarre plek, zou je kunnen zeggen. Dat “verzinnen van een werkelijkheid” noem je in AI-termen “hallucineren”. Soms is het wenselijk en precies waar het programma voor bedoeld is, zoals in AI waarmee je plaatjes genereert, bijvoorbeeld Dall-E. Maar in andere gevallen zorgt het ervoor dat ChatGPT zo fanatiek op zoek gaat naar verbanden, vooral als er weinig bekend is over een onderwerp, dat het aantreffen van twee feiten genoeg is om een causaal verband te leggen. Florian Cramer sprak en publiceerde over alt right, én hij sprak op een conferentie. Sim sala bim: Cramer deed op een alt right conferentie extreem-rechtse uitspraken, concludeert ChatGPT. Je hoeft niet veel fantasie te hebben om te zien dat deze mix en match – keurig en overtuigend verwoord door de AI-tool – zelfs de niet al te goedgelovige mens op het verkeerde been kan zetten. “Mensen begrijpen deze systemen niet en de industrie is compleet onverantwoord bezig door dit nu al in zoekmachines te integreren”, zegt Cramer, die dat vergelijkt met een kerncentrale neerzetten zonder veiligheidsmaatregelen, of een sterk medicijn verstrekken zonder dat getest is op bijwerkingen. “Eigenlijk moet de EU dat verbieden. Ik verwacht een vloedgolf aan nepnieuws. Een traditionele zoekmachine zoekt in feitelijke bronnen, een beetje zoals de catalogus van een bibliotheek. Daar kan ook nepnieuws tussen zitten, maar het probleem bij tools als ChatGPT is dat het eigen teksten genereert. Elke bewering moet je checken.”

Edith van Gameren in ChatGPT beschuldigt Hogeschool Rotterdam-lector van transfobe opmerkingen en extreem-rechtse sympathieën (profielen.hr.nl)