Et spøgelse går gennem de akademiske tidsskrifter.
Videnskabelige efterforskere har i de seneste to-tre år fundet hundredvis af eksempler på, at en bred vifte af videnskabelige tidsskrifter er hjemsøgt af hemmelig brug af AI.
Det vil sige, at forskerne bruger chatbotter som ChatGPT til at skrive og rette i deres studier. Vel og mærke uden at angive det i studiets metodeafsnit eller under særlige bemærkninger.
"Jeg synes ikke, det er et problem, at forskere bruger ChatGPT og anden generativ AI som værktøj eller redskab til at skrive artikler med. Problemet er, når det ikke bliver deklareret," mener Kristian Hvidtfelt Nielsen.
Han forsker i videnskabsformidling og er selv involveret i studier, der handler om mistro til forskning samt om åben og ansvarlig forskning.
"Frygtscenariet er jo, at tidsskrifter bliver spammet med manuskripter, som er hundrede procent genereret af ChatGPT og andre værktøjer. Du kan jo sagtens fodre ChatGPT med lidt data og få den til at skrive et helt studie, og så sende det ukritisk til et tidsskrift," siger han.
Hvis man ikke kender de særlige karakteristika, er de ofte næsten usynlige - dog ikke for det trænede øje.
Chatbotter som ChatGPT efterlader sproglige fingeraftryk, som forskere indenfor computer science, AI og lignende felter efterhånden er ved at lære at genkende.
Et af de tidligste eksempler, den amerikanske professor Alex Glynn kan huske, stammer fra en nu-tilbagetrukket videnskabelige artikel fra 2024, hvor der stod sort på hvidt: 'I am an AI language model'.
"Det var så åbenlyst, som det overhovedet kunne være. Alligevel gik det forbi både forfatternes, redaktørernes, bedømmernes, typografernes og alle andres øjne, som var involveret i udgivelsesprocessen," siger Glynn i en artikel i Nature.
Problemet med AI'en er dog ikke så meget vendingerne i sig selv, men at de er et tegn på, at der kan være mere voldsomme fejl og mangler ved studierne, siger Glynn.
Det er der da også fundet flere eksempler på.
Et af dem er et nu tilbagetrukket studie i PloS One fra 2024. Her ledte opdagelsen af AI-sprog til, at man fandt ud af, at studiet var overstrøet med problemer. Blandt andet kunne man ikke verificere en stor del af kilderne i studiets kildeliste, og referencerne var spækket med fejl.
Den AI-vending, der kickstartede gennemgangen af studiet, var 'regenerate response'. Det er en kommando, der får chatbotten til at generere et nyt svar, og den dukker ofte op i studier, fordi forskere har kopieret teksten fra chatbotten direkte ind.
Mere subtile formuleringer som 'certainly, there are…' er også på efterforskernes radar. Sådan begynder chatbotter ofte deres svar, når man stiller dem et spørgsmål.
Hvis man spørger Kristian Hvidtfelt Nielsen, må vi ikke glemme, at forskere også kan høste gevaldige fordele af at bruge AI.
AI kan for eksempel oversætte tekst i videnskabelige studier til engelsk.
"Langt de fleste forskningsartikler er jo på engelsk, og for forskere, der ikke har engelsk som modersmål, kan det være svært at formulere sig præcist og nuanceret. Der kan de her værktøjer hjælpe med at gøre sproget mere tydeligt og klart," siger han.
Det er også helt okay, at forskere bruger sprogmodeller til at forbedre strukturen i deres studier, til at gøre afsnit mere udførlige eller til at ideudvikle.
"Men hvis man bare ukritisk bruger AI og ikke vurderer den tekst, der kommer ud af ChatGPT, eller om den passer meningsfyldt ind i sammenhængen, så er det tvivlsom forskningspraksis," mener Kristian Hvidtfelt Nielsen.
Når forskere ikke angiver, at de har brugt AI, kan læserne netop ikke afgøre, om studiets forfatter har foretaget en sådan kritisk vurdering, lyder det.
"Ansvarlig forskningspraksis handler netop om åbenhed og gennemsigtighed. Hvis forskere ikke er åbne og gennemsigtige omkring, hvilke værktøjer de har brugt, kan det være et problem, for så er det svært for andre forskere at bedømme deres studier," siger han.
Det er svært at slå omfanget af skjult AI-brug fast, men der bliver hele tiden gjor...