Bråkrådets logo

ChatGPT: sci-fi-monster eller irriterende papegøye?

Det er ikke nytt at teknologiske fremskritt møtes med dystopisk vantro. I Morgenbladet denne uken får vi spalte opp og spalte ned med mer eller mindre seriøse motforestillinger mot kunstig intelligens, og nyanserte innspill fra bl.a. Erik Velldal og Jon Atle Gulla.

Utgangspunktet er et opprop som nettopp kom om å pause videreutviklingen av store språkmodeller i et halvt år. Der finner vi signaturene til Elon Musk og  Apples Steve Wozniak. I tillegg har litt akterutseilte aktører på området signert, for eksempel forskere fra DeepMind og diverse andre AI-organisasjoner. Legg merke til at de argumenterer for å pause utvikling av mer avanserte modeller enn markedsledende GPT-4.

Klart det vil være kommersielt beleilig for dem hvis OpenAI måtte pause det banebrytende arbeidet sitt. Det vil gi disse andre selskapene mulighet til hente seg inn. Kommersiell motivasjon kan spille en rolle hos flere av dem som signerer oppropet.

Det skal sies at Musk virker oppriktig i sin tro på at kunstig intelligens er «verre enn nukes.» Han er en «light-versjon» av Eliezer Yudkowsky, som fabulerer vilt og uhemmet om at kunstig intelligens vil utslette menneskeheten. (Les om dette på nøytri.no.)
I et annet hjørne anser noen GPT-er for å være nokså slappe saker. Der finner vi datalingvisten Emily Bender, som  i 2021 var med å hevde at språkmodellene er stokastiske papegøyer som reproduserer sitt eget datamateriale, men, altså, med variasjon i fremstillingen. I og med GPT-4 er slike påstander blitt veldig problematiske, men Bender endrer likevel ikke kurs (om jeg følger Morgenbladet).
GPT-4 resonnerer ut fra beskrivelser av situasjoner den ikke har fra materialet sitt. Den svarer på nye spørsmål som forutsetter spesifikke unike resonnementer (eksempel). Den gjør mye korrekt og mangt feil, men den resonnerer, eller iallfall, den presenterer resonnementer. Den plaprer ikke tomme ord som en papegøye. Den opererer på et semantisk og rasjonelt plan.
GPT-4 er en språkmodell som er basert på statistikk og forsøker å forutsi hvordan en tekst fortsetter, den gjetter de neste ordene. Likevel driver den med resonnering og kan til og med dikte opp fiktive fortellinger. Andre modeller kan produsere unik grafikk.

Utfordringen for datalingvister, andre språkfolk, humaniora generelt, psykologien er å forstå hvordan dette er mulig, og hva det innebærer for forståelsen vår av læring generelt, inkludert vår egen.

Vi er allerede utkonkurrert intellektuelt på flere områder av både klassiske datamaskiner og kunstig intelligens. Slike ting er likevel verktøy vi står fritt til å bruke eller ikke bruke, og de fungerer som forlengelser av oss selv hvis vi bruker dem. Selvfølgelig kan de misbrukes, men de er verken sci-fi-monstre eller irriterende papegøyer.

Illustrasjon: SDXL BETA (på Nightcafe)