Vitenskapelige tidsskrifter ber nå forfattere oppgi om, og eventuelt hvordan, de har brukt kunstig intelligens.
Foto: Einar Nilsen
Nylig skrev tidsskriftet Nature om en japansk forskergruppe som hadde lagt ut en artikkel på preprint-serveren arXiv, der kunstig intelligens ikke bare hadde skrevet manuskriptet, men også søkt opp litteraturen, formulert hypotesene, testet dem ut og kommet frem til og diskutert resultatene (1, 2) . Dette skal være første gang en form for kunstig intelligens (KI) står bak hele forskningsprosessen (1) . Kvaliteten er usikker, for manuskriptet er ikke fagfellevurdert – bortsett fra av seg selv. Ifølge Nature har KI nemlig også tatt seg av den biten (1) .
Det føles lenge siden vi lo litt av kunstig intelligens og ChatGPT. Nå leser vi daglig om nye og bedre plattformer for slik teknologi, nye muligheter og nye trusler
Det føles lenge siden vi lo litt av kunstig intelligens og ChatGPT (3) . Nå leser vi daglig om nye og bedre plattformer for slik teknologi, nye muligheter og nye trusler. Mange har etterlyst reguleringer og kontrollordninger (4) , og slike er i ferd med å komme på plass. I vår kom EU med retningslinjer for forsvarlig bruk av kunstig intelligens i forskning (5) . Forskningsinstitusjoner skal legge til rette for forsvarlig bruk, mens de som finansierer forskningen, skal støtte åpenhet. Men ethvert regelverk om kunstig intelligens vil fortsatt ligge minst ett skritt bak teknologiutviklingen.
Hvordan skal vitenskapelige tidsskrifter forholde seg til bruk av kunstig intelligens i forskning? Vi skal sørge for åpenhet – at leserne får vite hva slags KI-verktøy som er brukt i alle deler av den vitenskapelige prosessen (6, 7) . Derfor har de fleste medisinskvitenskapelige tidsskriftene, inkludert Tidsskriftet, nå et avsnitt i sine forfatterveiledninger om bruk av kunstig intelligens. I tråd med retningslinjene laget av blant annet Committee on Publication Ethics (COPE) og International Committee of Medical Journal Editors (ICMJE), ber vi forfatterne alltid oppgi bruk av slike verktøy i arbeidet med et manuskript (8) .
Ethvert regelverk om kunstig intelligens vil fortsatt ligge minst ett skritt bak teknologiutviklingen
Så langt har ingen forfattere oppgitt slik bruk i vårt tidsskrift. Det kan skyldes at ingen benytter kunstig intelligens, at få har fått med seg endringene i forfatterveiledningen, eller at forfattere er usikre på akkurat hva de skal oppgi. I så fall er de ikke alene: I en studie publisert i sommer, ble omkring 300 akademikere spurt om hva de tenkte de skulle oppgi (9) . Kun 20 % mente de skulle oppgi det hvis de hadde brukt ChatGPT til å korrigere grammatikk, mens 50 % svarte ja dersom språkmodellen ble bedt om å skrive om manuskriptet. Forfattere etterlyste, betimelig nok, mer spesifikke retningslinjer for hva som egentlig skal oppgis (9) .
Slike er på vei: International Association of Scientific, Technical, and Medical Publishers (STM), en paraplyorganisasjon for mange utgivere, anbefaler at «grunnleggende forfatterstøtte», som å forbedre grammatikken, ikke skal være nødvendig å oppgi (6) . Men det er ikke så lett å skille mellom grammatisk forbedring, omskriving og generering av ny tekst (7, 9) . Det kan derfor være hensiktsmessig å oppgi all bruk. The European Association of Science Editors (EASE) viser til et godt eksempel i sin veiledning (7) . Forfatterne opplyser at de har brukt ChatGPT til å forbedre lesbarheten av manuskriptet, og at de etterpå selv gjennomgikk og kontrollerte teksten for å sikre på at de kunne stå inne for innholdet. I Tidsskriftet anbefaler vi at du gjør det samme. Har du bedt om at språkmodellen skal generere tekst, må du spesifisere hva du har gjort og hvordan du har kvalitetskontrollert teksten. Vi mener man må være forsiktig med en slik fremgangsmåte. Språkmodellene bygger på allerede publisert materiale. Selv om teksten som genereres ikke er plagiat i ordets rette forstand, kan det være vanskelig å vite at man har kreditert de riktige personene, og språkmodellen kan ikke angis som primærkilde (7) .
Hva så med fagfellevurderinger? Flere forlag og organisasjoner forbyr all bruk av kunstig intelligens i vurderinger (7) . Men samtidig kan språkmodeller være til stor hjelp for travle fagfeller, dersom de brukes riktig (10) . I Tidsskriftet ber vi foreløpig fagfeller om å kontakte oss dersom de ønsker å benytte en form for kunstig intelligens (11) . Man må aldri laste opp upublisert materiale, eller egne vurderinger av det, i åpne systemer. Da brytes konfidensialiteten.
Til slutt: Så langt har vi i Tidsskriftet ikke tatt i bruk noen form for kunstig intelligens i manuskriptbehandlingen. Gjør vi det, vil vi selvsagt informere våre lesere.