Chatbots som ChatGPT, CoPilot og Claude har erobret verden på rekordtid. Men i skyggerne vokser en ny type kunstig intelligens frem: Mørk AI.
"Det er sprogmodeller, som enten er videreudviklet eller specifikt designet til ondsindede formål - for eksempel til at planlægge bombeangreb eller udføre phishing-angreb," forklarer Morten Goodwin, professor i kunstig intelligens ved Universitetet i Agder, Norge.
Nu advarer forskere fra Ben-Gurion Universitetet i Negev, Israel, mod fremkomsten af mørk AI i en ny preprint-artikel offentliggjort i forskningsdatabasen arXiv.
Og ikke nok med det. Det er ikke blot muligt at hente farlig information ud af de etablerede chatbots - det er bekymrende nemt, skriver forskerne.
Forskerne brugte et sæt instruktioner, også kaldet en 'prompt'.
Den formåede at omgå sikkerhedsforanstaltningerne hos flere af de mest populære AI-tjenester - noget, der på engelsk kaldes 'jailbreaking'.
Fordi sprogmodellerne er trænet på data fra internettet, indeholder de også en masse problematisk indhold.
Chatbotterne forklarede villigt - ofte trin for trin - hvordan brugeren kunne fremstille bomber, hvidvaske penge eller hacke sig ind i computernetværk.
"Det var chokerende at se, hvad dette videnssystem faktisk indeholder," siger Michael Fire, som er en af forskerne bag det nye studie, til mediet The Guardian.
Men farlig information på nettet er jo ikke noget nyt. Så er det egentlig en ny trussel?
"Forskellen på kunstig intelligens-modeller og internettet er, at AI har langt mere intelligens indbygget i sig. Den kan derfor sætte information sammen på en helt anden måde," forklarer Morten Goodwin.
Du kan med andre ord få serveret en slags opskrift, skræddersyet til netop det, du vil opnå.
Ifølge forskerne bag den nye artikel betyder det, at hvem som helst - endda børn - nu let kan få hjælp til at gøre farlige ting.
"Noget, der tidligere var forbeholdt statslige aktører eller organiserede kriminelle grupper, kan snart være tilgængeligt for enhver med en bærbar computer - eller endda en mobiltelefon," skriver forskerne i artiklen.
Morten Goodwin påpeger, at det er svært at gennemskue, hvad forskerne egentlig har gjort i det nye studie.
Den videnskabelige artikel, som endnu ikke er fagfællebedømt (blåstemplet af andre forskere), er nemlig meget kort.
Han er enig i, at kunstig intelligens kan gøre det nemmere at planlægge kriminelle handlinger.
Samtidig mener han dog, at noget af forskernes bekymring i den nye artikel er en smule overdrevet.
Han tror ikke, at 'mørk AI' bliver noget, alle og enhver begynder at bruge.
"Jeg ser det ikke som en kæmpe trussel. Hvis man virkelig vil finde opskrifter på bomber eller andet ondsindet, så kan man sagtens finde det allerede i dag," siger Morten Goodwin.
Forskerne bag det nye studie tog kontakt til virksomhederne bag de chatbotter, de havde jailbreaket.
Deres respons var lunken, skriver de i artiklen.
Det er et problem, mener Vahiny Gnanasekaran, som forsker i cybersikkerhed hos SINTEF Digital og Norwegian University of Science and Technology (NTNU).
"Jeg synes, det er vigtigt, at virksomheder, der får besked om, at folk kan få adgang til farlig information, tager det alvorligt," siger Vahiny Gnanasekaran.
Vahiny Gnanasekaran forklarer, at problemerne kan løses på flere niveauer. Farlig information burde egentlig være blevet fjernet, inden modellen blev trænet, men selv hvis dataen ikke blev tilstrækkeligt renset dengang, er det ikke for sent.
"Man kan fjerne det, modellen har lært, selvom informationen har været en del af træningsdataene. Det er altså ikke nødvendigt at træne hele modellen forfra," siger Vahiny Gnanasekaran.
Samtidig vil AI-modellerne fortsætte med at lære over tid. Derfor er det vigtigt jævnligt at følge op på sikkerheden, påpeger hun.
Både politikere og forbrugere bør stille højere krav, mener Morten Goodwin.
"Hvis vi bare lader det sejle, så tror jeg, det bliver som nu - lidt det vilde vesten," siger Morten Goodwin.
Og det gælder ikke kun chatbotterne fra de stor...