AI som forskningsassistent og sekretær

 Som en del av jobben så tar jeg på med fagfellevurderinger av andres artikler av og til. Som regel er slike jobber interessante da de gir ny informasjon og nye perspektiver. I dag satte jeg av tid til dette, en artikkel om vann, klimaendringer og sikkerhet i Bangladesh som hørtes interessant ut. 


Jeg fikk lastet ned artikkelen, og etter en stund kom jeg til noen setninger som ga utrolig liten mening: 

"Bangladesh emerges as a climate change impact zone (Eckstein et al., 2019) where escalating temperatures severely degrade water quality. The past ten years have seen an average temperature rise of 0. The temperature stands at 20°C while yearly precipitation is expected to increase by 153 mm according to Rahman and Lateh's 2017 study. Surface water temperatures will rise by 2°C by 2070 causing increased threats to water quality and ecosystem stability."

Videre kom det plutselig en referanse til Three Gorges Dam i Kina, så slo det meg: Kan de ha brukt KI assistanse her?. Hva er bedre tiltak da enn å fyre opp diverse KI løsninger og be dem sjekke teksten for KI. Resultatet ble uniformt:

Le Chat av Mistral, Gemini, ChatGPT, og KI-chat (fra SIKT) ga samme svar: Det er trolig brukt KI til å lage deler av teksten. Her er KI-chat sitt svar:

"Ja, det er mulig at denne teksten er generert av en KI (kunstig intelligens), selv om det ikke er mulig å slå det fast med sikkerhet basert kun på innholdet. Her er noen tegn som kan indikere at teksten kan være KI-generert:

1. **Formell og generisk stil**: Teksten har en akademisk tone, men den mangler dybde eller spesifikke analyser som ofte kjennetegner menneskeskrevne artikler. KI-genererte tekster er ofte velskrevne, men kan virke overfladiske.

2. **Manglende sammenheng i tall**: En del av teksten sier at temperaturen har steget med "0" de siste ti årene, noe som virker som en feil eller et manglende datafelt. Dette kan tyde på automatisert tekstgenerering.

3. **Overbelastning av referanser**: Teksten navngir mange forskjellige studier (Eckstein et al., 2019; Rahman og Lateh, 2017; Kolb et al., 2017, osv.) på en måte som kan virke kunstig. KI-modeller har en tendens til å inkludere mange referanser for å fremstå troverdige, selv om referansene ikke nødvendigvis er nøyaktige eller relevante.

4. **Manglende dybde i analysen**: Selv om teksten nevner mange viktige temaer som klimaendringer, temperaturøkning og vannkvalitet, virker den mer som en oppsummering enn en dyptgående diskusjon. Dette er typisk for KI-genererte tekster."

Jeg avbrøt nå lesingen og skrev anbefalte et avslag av artikkelen. Dette avslaget bygger ikke på at de eventuelt har brukt KI som støtte i arbeidet, men at de trolig har brukt KI-tekster rått, kanskje til og med uten å lese gjennom uten å oppgi at de har brukt KI. Teksten i resten av dokumentet var også av lavere kvalitet. 

Min mening om bruk av KI-tjenester i forskning

  • Vi bruker mye tid på å lete etter relevante studier innen fagfeltet, her kan KI-løsninger bli et meget sterkt verktøy.
  • Å bruke KI verktøy til å skrive sammendrag av en eller flere studier er også nyttig, men bør bare brukes for en selv eller internt i en gruppe
  • Å publisere KI  skrevne tekster som sine egne, er i beste fall dårlig praksis. Å gjøre det som i denne artikkelen,rått og "skjult", er på grensen til forskningsjuks.

Kommentarer

Populære innlegg fra denne bloggen

Hvor stor er en flis?

Hvor varmt blir 2025?

Interresant dag og lånte fjær