ChatGPT og de andre AI-modeller er begyndt at sende brugere til Videnskab.dk.
Det gjorde mig glad, da jeg hørte om det. For det er vigtigt, at vi får mulighed for at finde de oprindelige kilder, som de kunstige intelligenser baserer deres sammenkogte ruskomsnusk på, når de genererer svar på spørgsmål.
Glæden varede dog kort. For det viser sig, at omkring en fjerdedel af trafikken til Videnskab.dk fra ChatGPT og de andre går til ikke-eksisterende historier, der er fri fantasi.
AI opfinder simpelthen links til historier, vi aldrig har skrevet, og inkluderer dem i deres svar. Når man klikker på dem, kommer man ind på en såkaldt 404-fejlside. Øv bøv - lang næse.
Ikke bare lyver og hallucinerer ChatGPT og de andre altså. De narrer dig nu også til at tro, at det, de fortæller, er baseret på troværdige kilder - publicistiske medier som Videnskab.dk eller måske leksikale tjenester som Lex.dk, Danmarks Nationalleksikon.
De stiller sig selv i et positivt lys og lusker sig til en bid af vores troværdighed.
Hvis du så som kritisk forbruger af viden vil udøve kildekritik og dobbelttjekke ved at klikke på linket, får du et ikke-fungerende link, hvilket stiller Videnskab.dk i et dårligt lys. Vi risikerer, at brugerne bliver sure på os - og andre troværdige kilder der rammes på samme måde - og ikke gider besøge os en anden gang, fordi de oplever, at vi ikke har styr på vores links.
Interessant nok sker der generelt det for tiden, at trafikken fra ChatGPT til internationale mediers hjemmesider stiger voldsomt. Det amerikanske fagmedie Digiday oplyser, at trafikken herfra til de publicistiske medier er næsten fordoblet i år. Muligvis som respons på kritik af, at AI i stigende grad suger brugerne væk fra de troværdige kilder.
Men når så stor en del af deres links er falske, er vi jo lige vidt.
Forskere fortæller i øvrigt, at de oplever noget tilsvarende med videnskabelige referencer, hvor AI linker til videnskabelige artikler om noget helt andet end det relevante.
Og det videnskabelige tidsskrift ScienceDirect advarede sidste år mod 'Botshit' - bullshit genereret af en chatbot, som befolkningen ukritisk labber i sig frem for at forlade sig på videnskabelig velbegrundet viden.
AI trænger de publicistiske medier op i en krog. Trafikken fra den altdominerende søgemaskine, Google, falder, i takt med at brugerne får svar fra AI direkte i toppen af Googles søgeplatform.
Samtidig træner ChatGPT og de andre deres sprogmodeller på de publicistiske mediers indhold uden at betale for det, i det omfang de kan slippe af sted med det, og så optræder de efterfølgende som konkurrenter til selvsamme medier.
I USA sagsøgte den toneangivende avis New York Times i 2023 OpenAI og Microsoft for at krænke deres ophavsret ved at træne deres chatbots på millioner af artikler fra avisen uden at have fået tilladelse til det. Sagen er endnu ikke afgjort.
I Danmark har de fleste medier afvist at lade ChatGPT og de andre sprogmodeller i AI bruge deres indhold. Det gælder også Videnskab.dk.
Medierne har generelt svært ved at navigere i forhold til AI. Nogle forsøger at spænde teknologien for deres egen vogn og for eksempel bruge AI til at generere indhold på en billigere måde end ved at have journalister til at skrive det.
Det kan man imidlertid komme grumme galt af sted med, hvis man glemmer at faktatjekke efterfølgende, som det lige er sket for dagbladet Politiken.
I en artikel om forfatteren Harald Voetmann brugte Politiken for nylig AI til at generere en kort, helt elementær faktaboks om hans forfatterskab. Her fandt brugerne hurtigt fem graverende fejl. Læsernes redaktør korrigerede og beklagede på tryk, men glemte at fortælle, at miseren skyldtes AI. Det blev dog senere oplyst digitalt i den pågældende artikel på nettet.
På Videnskab.dk har vi løbende diskussioner af, hvordan vi skal håndtere AI. Om vi skal bruge det og i givet fald hvordan.
Vi har valgt ikke at bruge AI til at generere færdige tekster til vores artikler. Men vi kan godt bruge AI som en sparringspart...