Frontkom Fagblogg

Hvordan bruke ChatGPT som kilde i innholdsmarkedsføring

Skrevet av Stine Nevjar | 27.12.2022

There's a new kid in text town. Navnet er ChatGPT. 

Vidunderbarnet spytter ut tekst om alt mellom himmel og jord raskere enn vi rekker å si “kilde”. Den skriver raskt. skråsikkert og velformulert på en haug med språk. Joda, jeg har hørt at den ikke er feilfri, men hvem er vel det? Er ChatGPT en kilde til bekymring? Har jeg som tekstforfatter møtt min overmaskin? 

Hvor henter ChatGPT ikke informasjon fra?

Høstens store snakkis for alle som er det minste interessert i teknologi er den avanserte chatboten ChatGPT. Det er verdt å merke seg hva forkortelsen i navnet står for: Generative Pretrained Transformer. Det betyr altså den genererer tekst basert på informasjon den er blitt lært opp til å bruke. Ved utgangen av 2022 kan ChatGPT generere overraskende velformulerte tekster innen de fleste sjangre på en mengde språk - også norsk.

Den kan brukes som søkemotor og informasjonsbank for alle tenkelige og utenkelige emner. Vel å merke så sant opplysningene var tilgjengelige senest i oktober 2021 - og at noen har valgt å fôre maskinen med dem. Det som har skjedd de siste 14 månedene har den begrenset med kunnskap om foreløpig. Som eksemplet viser har den svært lite å fortelle meg om fotball VM i Qatar, også etter at Messi har hevet pokalen. Og selv med en god porsjon godvilje vil jeg påstå at beskrivelsen av forholdet mellom Russland og Ukraina i beste fall kan kalles mangelfull. 





ChatGPT henter informasjon fra et omfang av kilder jeg som tekstforfatter bare kan drømme om å rekke over. Den bruker enorme mengder data, artikler, bøker og nettsider til å generere unike, noenlunde velformulerte tekster i løpet av sekunder. Men hvor henter den informasjon fra? Og hvor henter den ikke informasjon fra? Hvem bestemmer hva den skal lære? 

Content i kontekst

La oss være ærlige. Det er stor underholdning i å be ChatGPT skrive et bibelvers om hvordan man fjerner en brødskive med peanøttsmør fra videospilleren. Eller å be den problematisere seg selv. Og det er ikke bare gøy, men også imponerende hvordan det er mulig å trene en maskin til å skrive så gode, unike tekster om nær sagt hva som helst. Men kanskje hadde Neil Postman noen gode poenger da han problematiserte forholdet mellom form og innhold i budskapsformidling i sin bok “Amusing ourselves to death” (1985)?

Det handler om å se content i kontekst. 



Tech-miljøet jubler og lærerne fortviler. Journalister og skribenter lurer på om det er på tide å legge tastaturet på hylla og se seg om etter en ny karriere. Og jeg har lyst til å stille et par spørsmål.

Som teknologientusiast jubler jeg over det fascinerende i et så kraftig verktøy. Jeg kan knapt vente til jeg ser fortsettelsen og hvilke muligheter utviklingen åpner opp for.

Likevel. Jeg har tilbrakt årevis på lesesaler tilhørende norske universiteter. En betydelig andel av denne tiden har jeg brukt til å skrive korrekte kildehenvisninger. Å dobbeltsjekke fakta, reflektere over det jeg leser, finne motstridende argumenter og sette påstander opp mot hverandre. Med henvisninger. Jeg har blitt drillet i kildekritikk og oppfordret til å tenke selv. Riktignok var jeg sløv nok til å stryke på min første universitetseksamen - med god grunn.

Den grunnen var manglende kildehenvisninger.

Så hvordan kan det ha seg at jeg ikke finner kildene til ChatGPT? Hvor får denne tilsynelatende intelligente maskinen sin kunnskap fra? Hvordan kan jeg vite at informasjonen stemmer?

Og hvorfor synes jeg disse spørsmålene er så viktige?


Hva spiser chatboter?

Jeg har ingen grunn til å tro at menneskene bak ChatGPT ikke gjør sitt beste for å presentere objektive sannheter og verifiserte fakta. Men etter det jeg selv vil kalle en middels grundig jakt, finner jeg ingen kildelister. Søkene gir meg generelle fraser som “basert på enorme mengder informasjon” og at man har brukt “Reinforcement Learning from Human Feedback” (RLHF) til å trene den. OpenAI, som står bak teknologien, lister opp tjenestens åpenbare begrensninger i sin egen artikkel. Her kan man blant annet lese at tekster som fremstår som plausible kan inneholde feil. Men hvor mange av chatbotens over 1 million brukere (til nå!) vil ettergå alle opplysninger maskinen legger fram som sanne?

Det er grunn til å reflektere over om ChatGPT er objektiv. Om den presenterer den hele og fulle sannheten. Den har jo bare tilgang på informasjonen noen har valgt å fôre den med. Og hvem er disse “noen”? Hvordan kan jeg vite hva de - nå, eller på et senere tidspunkt - ønsker å oppnå?

Joda, jeg vet at OpenAI står bak. Og jeg vet hvem som står bak OpenAI. Men har ikke vår gamle kjenning Elon Musk gitt oss grunn til å stille spørsmålstegn ved hans makt og motiver etter de siste månedenes Twitter-turbulens? Kan Elon Musk, som en av de ansvarlige for den velformulerte chatbotens diett, styre hva vi svelger som sannheter?

Teksten om torsken

Diskusjonen og problemet rundt falske nyheter og desinformasjon har blitt et stort problem i den offentlige debatten verden over. Åpenbare usannheter spres som ild i tørt gress og har store konsekvenser for valg og politisk styring i en rekke land vi tidligere har tenkt på som opplyste, velfungerende demokratier. Mektige mediemoguler med mistenkelige motiver styrer informasjonen velgerne får servert, og boter av ukjent opprinnelse blander seg inn i den åpne debatten på sosiale plattformer. Faren for å bli fanget i ekkokamre av subjektiv meningsutveksling er reell.    

I Norge har dette ført til opprettelsen av faktisk.no. Den ideelle organisasjonen er eid av VG, Dagbladet, NRK, TV 2, Polaris Media og Amedia. Deres formål er “å være et åpent laboratorium for kildebevissthet og kritisk mediebruk i Norge”. Faktisk.no er del av det internasjonale faktasjekknettverket (IFCN), noe som betyr at også deres arbeid har en kontrollinstans.

Når den offentlige debatten ikke lenger kontrolleres av redaktørstyrte medier, føles det trygt å ha en slik instans i Norge. Det betyr likevel ikke at vi skal slutte å tenke selv, og være bevisst hvilken informasjon vi baserer meningene våre på.

ChatGPT er altså åpen om sine begrensninger. Samtidig er den rasende god til å skrive og være overbevisende i sin argumentasjon. Det gjør det vanskelig for oss (med våre åpenbare menneskelige begrensninger) å avdekke feil rundt temaer som er utenfor vår ekspertise. Og det er vel stort sett ting vi ikke vet fra før vi søker informasjon om?

Aftenposten illustrerer problemet godt med sitt forsøk på å få chatboten til å skrive en god, informativ tekst om torsken. Det er vel begrenset hvor stor skade det kan gjøre at ChatGPT ikke klarer å fortelle oss hvilken familie torsken tilhører, men det viser hvor lett den kan lure oss. At vi ikke skal svelge teksten om torsken uten å både smake og tygge først. I artikkelen understreker professor i kunstig intelligens ved NTNTU, Jon Atle Gulla, følgende: - Det er viktig å legge merke til at dette ikke er en kunnskapsmodell, men en språkmodell. Derfor må den brukes med forsiktighet. 

Er AI intelligent nok til å bli kalt intelligens?

Chatboten henter altså sin kunnskap fra store mengder data og lærer å bruke det av AI-trenere, men den forteller oss ikke hvem kildene er. Den er bygget på kunstig intelligens, men hva er intelligens? Omfatter det ikke evnen til å reflektere? Her er Store Norske Leksikons definisjon:

Intelligens, blir i psykologien brukt som et fellesnavn på menneskers evner til oppfattelse, tenkning og problemløsning, og da spesielt på de områder hvor en finner individuelle ulikheter.

Oppfattelse, tenkning og problemløsning altså. Det er der vi mennesker har noe å bidra med. ChatGPT er basert på kunstig intelligens, men hva er så det? La oss bla opp i Store Norske igjen:

Kunstig intelligens er informasjonsteknologi som justerer sin egen aktivitet og derfor tilsynelatende framstår som intelligent.

Min intelligens (som helt klart har sine mangler) oppfordrer meg her til å legge merke til at teknologi kun tilsynelatende framstår som intelligent. Den justerer sin egen aktivitet, men informasjonen den har tilgjengelig begrenser seg til det noen lærer den. Hvis det å sette sammen informasjon på en ny måte er å tenke selv, kan ChatGPT da brukes som kilde?

ChatGPT som kilde i innholdsmarkedsføring?

En kilde må ha noe nytt å komme med. Altså må den tenke selv. Dette krever intelligens og evne til refleksjon. Å sette sammen informasjon på nye måter, bruke det andre har tenkt før til å se sammenhenger man ikke før har oppdaget. I følge akademia skal man alltid referere til de som sa noe først - slik bygger forskning på forskning. Det legges store ressurser i delte kunnskapsdatabaser med verifiserte forskningsresultater. I Norge administreres slike tjenester av Sikt - kunnskapssektorens tjenesteleverandør, og ideelt sett fører arbeidet til at forskningsinstitusjoner over hele verden jobber sammen for å etablere ny kunnskap.

Innholdsmarkedsføring handler i stor grad om å skape tillit. Å etablere seg som en tung, faglig aktør som potensielle og eksisterende kunder kan stole på. En seriøs samarbeidspartner de vender seg til for kompetanse innen et gitt felt.

For å lykkes med å etablere en slik posisjon i markedet bør man unngå snarveier. Det gjelder faktabruk og kildehenvisninger i alt innhold man publiserer. Markedsføringsloven er krystallklar:

Påstander i markedsføring om faktiske forhold, herunder om ytelsers egenskaper eller virkning, skal kunne dokumenteres. Dokumentasjonen skal foreligge på annonsørens hånd når markedsføringen skjer.

Influensere faller inn under denne loven. De er forpliktet til å merke sponsede innlegg i sosiale medier (noe de gjør med vekslende tydelighet). Frontkom har utviklet en tjeneste for Forbrukertilsynet for merking av retusjerte og manipulerte stillbilder og videoer i tradisjonelle og sosiale medier.

I mylderet av blogginnlegg med varierende kvalitet er det ikke alltid lett å vite hva som er verdifullt innhold eller hvor faktaopplysninger er hentet fra. Vi som jobber med innholdsmarkedsføring bør sette vår ære i å heve kvaliteten ved å lære av akademias regler om referanser og kildehenvisninger. Og da tenker jeg at kilden kanskje ikke bør hete ChatGPT.

For hva skjer hvis jeg spør chatboten om jeg kan få sitere den i et blogginnlegg?



Javel, ja. Den stiller altså gjerne som kilde, men er ikke snauere enn at den krever intellektuell opphavsrett. Dette føles litt som å gå i ring. Jeg tror jeg må lese avsnittet jeg nettopp skrev om intelligens en gang til.

Hei Chatbot - skal vi jobbe sammen?

Så hva kan tekstene ChatGPT genererer brukes til? Hvilken verdi har de, og kan de brukes i innholdsmarkedsføring? Er det grunn til å være skeptisk?

ChatGPT setter sammen informasjon som allerede er tilgjengelig og setter det sammen til en ny tekst. På en ny måte. En tekst som kanskje er til å stole på. Men en ting er sikkert, den er et oppkomme av ideer - som har verdi dersom de brukes riktig.

I mange sammenhenger er verktøyet mer enn nok til å gjøre jobben for deg, men det kommer naturligvis an på hva jobben din er. I mitt tilfelle som tekstforfatter tenker jeg at det er både gøy og lærerikt å få en ny kollega. En som bobler over av ideer, som jobber ekstremt raskt og aldri sier nei. Historien om teknologiutvikling er full av moralsk panikk, mye av det faller gjerne i kategorien naivt og uvitende i ettertid. Jeg nekter å svelge teknologiens tekst om torsk uten å tygge først, men jeg ønsker boten velkommen i teamet med sine styrker. Så skal jeg fortsette å bruke mine.

 

Var denne artikkelen nyttig?