Antologi Fritt Ord-konkurransen

Fritt Ord-konkurransen for videregående skole

Fagartikler

Kampen om sannheten

Det er gode grunner til å være skeptisk til dem som forteller oss at kunstig intelligens vil gjøre oss ute av stand til å skille mellom fantasi og virkelighet.

Hver vinter samles et par tusen av verdens mektigste, rikeste og mest innflytelsesrike mennesker på et luksusresort i en liten sveitsisk alpelandsby for å diskutere de største problemene verden står overfor – ofte bak lukkede dører. Toppmøtet i Davos, som er arrangert av Verdens økonomiske forum, er som skapt for konspirasjonsteorier om en skjult verdensregjering som trekker i trådene og vil at alle vi andre skal spise innsekter. I virkeligheten er det nok bedre å se på toppmøtet som et barometer for hvilke spørsmål verdens mektigste mennesker ønsker å sette på dagsorden. Og de siste årene har nettopp bekymringen for konspirasjonsteorier og usannheter tatt stadig større plass i Davos.

Da forumet i januar la frem sin årlige Global Risk Survey, hvor et panel av «globale eksperter» rangerer de største truslene verden står overfor de neste to årene, var «feil og desinformasjon» plassert helt øverst på listen. Ifølge Verdens økonomiske forum vil med andre ord feil og løgner i sosiale medier skape større problemer enn fattigdom (6. plass), ekstremvær (2. plass) og krig (5. plass). I begrunnelsen kan vi lese at årsaken er kunstig intelligens, som vil gjøre «ondsinnede aktører» i stand til å «oversvømme de globale informasjonssystemene med feilaktige narrativer».

Det er ikke bare fra Davos verden ser slik ut. Tvert imot er dette en ekstrem versjon av en idé som nærmest er blitt allmennkunnskap siden Brexit-avstemningen og Donald Trumps valgseier i 2016, nemlig at flere av de største problemene i vestlige demokratier – polarisering, mistillit og økende oppslutning om høyrepopulistiske partier – i stor grad skyldes at innbyggerne lar seg forvirre og manipulere av feilaktig informasjon i sosiale medier, spredt enten av folk som ikke vet bedre (feilinformasjon) eller aktører med ondsinnede hensikter (desinformasjon). Vi lever i «postfakta-samfunnet», het det i 2016. Under pandemien var vi rammet av en «infodemi». De siste årenes fremskritt innen kunstig intelligens har gitt frykten ytterligere næring. Avisartikler, tenketankrapporter og offentlige utredninger advarer om at store språkmodeller og bilde- og videogeneratorer vil gjøre det mulig å oversvømme oss med masseproduserte løgner, automatisere hærskarer av falske profiler og en gang for alle gjøre det umulig å stole på våre egne øyne.

En nyttig krise

Personlig er skeptisk til denne fortellingen. Jeg skal forklare hvorfor, men la meg først ta et forbehold: Jeg er ikke egentlig noen teknologioptimist. Internett, sosiale medier og kunstig intelligens er informasjonsteknologiske jordskjelv, som helt åpenbart påvirker både offentligheten og hvordan hver og en av oss forholder seg til informasjon – for alt jeg vet med katastrofale følger. At dette skiftet skjer i regi av et knippe gigantselskaper som lever av å overvåke oss for å kunne tilby mest mulig målrettet reklame, gir ikke grunn til optimisme.

Når jeg likevel er skeptisk til hvordan feil- og desinformasjon vanligvis omtales, er det altså ikke fordi jeg tror det ikke finnes farer. Det er fordi jeg mener at det er gode grunner til å tro at fortellingen om at vi står i en unik sannhetskrise, gir et galt bilde av hva farene faktisk er. I stedet for å synligjøre grunnleggende årsaker til problemene vi står overfor, peker den på stadig nye symptomer som må bekjempes. Det er en nyttig fortelling for elitene i samfunnet, som kan skylde på det lettpåvirkelige folket fremfor å innrømme sine egne feilgrep. I stedet for en visjon om en mer demokratisk offentlighet, bereder den grunnen for å gi mer, ikke mindre, makt til teknologigigantene – og for illiberale politiske løsninger.

Feilinformasjon om feilinformasjon

Dette er ikke noe jeg har funnet på helt på egenhånd, naturligvis. Parallelt med at det i offentligheten har festet seg en ide om at feil- og desinformasjon i sosiale medier er årsaken til alt fra Donald Trumps valgseier i 2016 til økende klimaskepsis, har den ene empiriske studien etter den andre slått beina under dette inntrykket. Flere forskere har forsøkt å slå alarm om misforholdet mellom hvordan problemet omtales i mediene, og hva forskningen faktisk viser. «Feilinformasjon om feilinformasjon» er tittelen på en oversiktsartikkel publisert i forfjor. «Alarmistiske narrativ om feilinformasjon fortsetter å spre seg til tross for bevis på at både utbredelsen og effekten er overdrevet», lyder første setning.

Ifølge forfatterne har mediedekningen skapt et vilt overdrevet inntrykk av hvor utbredte fenomener som «falske nyheter» faktisk er. De peker blant annet på studier som viser at feilinformasjon utgjør 0,15 prosent av amerikaneres mediediett og 0,16 prosent av franskmenns. Det er viktig å merke seg at dette er gjennomsnitt. De fleste ser aldri noe til det i det hele tatt. I all hovedsak er eksponeringen for innholdet konsentrert hos en liten minoritet som i stor grad aktivt oppsøker det, og som det er grunn til å tro at allerede er overbevist om innholdet.

Dette mønsteret – at de som eksponeres for desinformasjon i hovedsak er dem som selv oppsøker den – er funnet igjen i en lang rekke studier på ulike plattformer, om ulike temaer og i forskjellige land. For eksempel viste den grundigste studien som til nå er gjort av effekten av russiske trollfabrikkers forsøk på å bruke Twitter til å påvirke det amerikanske presidentvalget i 2016, at 70 prosent av visningene var samlet hos kun 1 prosent av brukerne – en liten gruppe aktive Trump-tilhengere. Det var ingen tegn til at dette endret holdninger, konkluderte forskerne.

Denne innsikten betyr naturligvis ikke at desinformasjon er ufarlig. Men det faktum at den i de fleste tilfeller i all hovedsak «taler til menigheten» gjør det mye vanskeligere å tro at den kan flytte opinionen eller påvirke utfallet av valg.

Facebook-mennesket

For all del, denne typen statistiske analyser av enorme datasett er en håpløst grovkornet måte å tilnærme seg noe så komplekst og kontekstavhengig som hvordan et stykke medieinnhold former holdningene og handlingene til et ekte menneske. Men denne svakheten gjelder i enda større grad selve fortellingen om desinformasjonskrisen, som underbygges av kontekstløse, tilsynelatende store tall over hvor mange som er «eksponert» for problematisk informasjon. Avisartikler og forskningsartikler om desinformasjon går ofte som følger: Så og så mange har sett en feilaktig påstand – dermed er de, antas det, på et eller annet vis påvirket av den.

Studiet av desinformasjon er naturligvis et barn av datafiseringen. Muligheten til å kommunisere og dele informasjon på nye måter, har åpnet helt nye muligheter for å overvåke hva folk snakker om, hva de mener og hvilken informasjon de eksponeres for. Siden 2016 har det vokst frem et univers av forskningsmiljøer, tankesmier og journalister som spesialiserer seg på denne kartleggingen. Med denne nye oversikten over all løgnen og dumskapen som finnes der ute, tegnet ned på detaljerte nettverkskart, har det oppstått en fortelling om at vi står i en akutt krise.

Men det enorme datatilfanget har det også sine begrensninger. Oppløsningen er lavere enn før. Det er ikke ekte mennesker vi studerer, men digitale spor – en like, en deling, en eksponering. Dette er datapunkter som er produsert, og ofte tilgjengeliggjort, av plattformselskaper som Facebook og Twitter, som også lever av å generere, samle inn og analysere dem. For dem er dette råstoff i produksjonen av prediksjonen av en veldig spesifikk type adferd, nemlig hva som gjør at folk klikker på bestemte annonser. Det er neppe tilfeldig at det mekaniske synet på påvirkning som preger desinformasjonsfortellingen er så kompatibelt med Facebooks menneskesyn.

Det er også verdt å merke seg at ideen om at eksponering for informasjon i sosiale medier har en voldsom effekt på folks holdninger og adferd, er nøyaktig teknologigigantene ønsker at folk skal tro. At noen hundre tusen velplasserte reklamer i nyhetsstrømmen til de riktige menneskene snudde valget i 2016 i favør Donald Trump, er ikke bare kritikk av Facebook, det er også verdens beste reklame.

Seig materie

Fungerer mennesker slik? Det finnes noen motforestillinger. Siden 1950-tallet har valgforskere forsøkt å spore kreftene som ligger bak et kryss bak det ene eller andre partiet på valgdagen. I amerikansk valgforskning snakker de om årsakstrakten, hvor langsiktige sosiologiske og demografiske faktorer former en relativt stabil partitilhørighet før enkeltsaker til slutt virker inn ved traktens tut. Den norske nestoren er Stein Rokkan, som lærte oss hvordan grunnleggende konfliktlinjer med århundrelange røtter former våre politiske konflikter. Det alle er enige om, er at velgeradferd er seig materie. En rekke studier har konkludert med at selv profesjonelle valgkampanjer i liten grad endrer folks meninger.

En lignende lærdom finnes i kommunikasjonsforskningens historie. I tiårene etter krigen, da TV-en revolusjonerte massekommunikasjon slik sosiale medier gjør i dag, og den kalde krigen skapte en informasjonskrig minst like skarp som den vi i dag står overfor, forsøkte forskere å måle effekten av reklame og propaganda. Den, for mange skuffende, konklusjonen kan oppsummeres av sosiologen Paul Lazarsfelds "teori om at massekommunikasjon":https://www.routledge.com/Personal-Influence-The-Part-Played-by-People-in-the-Flow-of-Mass-Communications/Katz-Lazarsfeld-Roper/p/book/9781412805070 har «begrenset effekt». Det betyr ikke at folk ikke lar seg påvirke, men at de ikke gjør det direkte. Det er en sosial prosess, som er mye vanskeligere å styre enn det propagandister og markedsførere skulle ønske.

I fjor intervjuet jeg medieforskeren Chris Anderson, som har sammenlignet den kalde krigens studier av propaganda med dagens diskusjoner om desinformasjon. Han oppsummerte det sånn: «Er det ett funn vi har gjort, så er det dette: at det ikke finnes et enkelt, direkte én-til-én forhold mellom informasjonen et individ eksponeres for og handlingene deres. Plutselig er det oppstått et stort forskningsfelt som legger til grunn at desinformasjon fungerer på denne måten, uten å engang anerkjenne at det er omstridt».

Det konspiratoriske mennesket

Det er dessuten vanskelig å finne bevis for at folk generelt er mer feilinformerte i dag enn de var før de begynte å bruke sosiale medier. Blant de få som har gjort den typen studier som kan fange opp en slik utvikling, er den amerikanske statsviteren Joseph Usincki, en av verdens ledende forskere innenfor studiet av konspirasjonsteorier. Da jeg intervjuet ham for Morgenbladet i forfjor, la han ikke skjul på at han var lei av journalister som ringte for å spørre om sosiale medier: «Det finnes absolutt ingen bevis for dette i det hele tatt. Ingenting tyder på at flere tror på konspirasjonsteorier nå enn tidligere.»

Når vi ser konspirasjonsteoretikere, tenker vi at det skyldes at de er eksponert for en konspirasjonsteori, men det er å snu det på hodet, mener Uscincki. Mennesker oppsøker konspirasjonsteorier som bekrefter verdenssynet de allerede har. Dette har lite med sosiale medier, algoritmer og ekkokamre å gjøre, men formes i samspill mellom psykologi, livsbetingelser og kulturen rundt dem.

Dette stemmer godt overens med forskningen til den danske statsviteren Michael Bang Pedersen, som har vist at de som sprer fiendtlige og feilaktige rykter i sosiale medier, er kjennetegnet av bestemte psykologiske personlighetstrekk og en følelse av marginalisering. Dette gir opphav til en modus han kaller «behov for kaos», et ønske om å rive ned det etablerte for å heve sin egen status. «Dette handler om materielle forhold i folks liv utenfor internett, om økonomisk ulikhet, diskriminering, følelsen av marginalisering og utenforskap», sa Petersen da jeg intervjuet ham for Morgenbladet i fjor. «Og det er utrolig viktig at politikere ikke lar seg forlede til å tro at dette løses gjennom sosiale medier, men heller fokuserer på reelle problemer.»

Hva med KI?

Hva skal vi da si om Verdens økonomiske forums vurdering av feil- og desinformajson som det største problemet verdens står overfor? I begrunnelsen var det særlig bruken av kunstig intelligens som fremsto som ny og truende.

Særlig urovekkende var det, som mange har mange påpekt, at denne teknologiske utviklingen skjer i en tid hvor det globale demokratiet står på vippepunktet. 2024 er det største valgåret i verdenshistorien med valg i 64 land, som til sammen er hjem til omtrent halvparten av verdens innbyggere. Verdens økonomiske forum la frem sin rapport i januar, på terskelen til dette skjebneåret. I skrivende stund er det godt i gang. Konklusjonen til nå må være at deepfake-akopalypsen lar vente på seg. Valgene i Storbritannia, India og i EU-parlamentet har gått sin gang. Til nå er det lite som tyder på at trusselen fra kunstig intelligens har vært uhåndterlig.

Det er ikke fordi de som sprer desinformasjon, ikke har tatt i bruk teknologien. I juni la OpenAI, selskapet bak ChatGPT, frem en rapport hvor de avslørte at de har avdekket fem ulike aktører som har brukt produktene deres til å oppnå sine mål.

I rapporten finnes flere kjenninger for dem som følger med på den digitale informasjonskrigen. Det beryktede russiske påvirkningsnettverket Doppelganger, som særlig jobber for å undergrave vestlig støtte til Ukraina, har for eksempel brukt ChatGPT blant annet til å lage poster til X og meme-plattformen 9gag. Kinesiske Spamouflage har brukt verktøyene til å konstruere «diskusjoner», hvor falske brukerkontoer svarer på hverandres kritiske innlegg om en kinesisk dissident. Et kommersielt israelsk selskap har brukt KI-verktøy blant annet til å produsere sosiale medieinnlegg som anklager amerikanske studentdemonstranter for antisemittisme.

Når en ramser det opp slik, høres det ut som debattene vi ser i sosiale medier, er orkestrert av lyssky byråer og autoritære regimer. Kanskje Verdens økonomiske forum har rett likevel? Men det er før en leser at alle de til nå avdekkede operasjonene har vært totalt mislykkede. Ingen av dem lyktes i å engasjere noen ekte mennesker i det hele tatt. Det er snakk om varm luft, spam, pumpet ut i den enorme algoritmeskyggen som utgjør så mye av internett. De vil garantert bli bedre i fremtiden. Men den som vil hevde at dette er den største trusselen verden står overfor, har bevisbyrden på sine skuldre.

En autoritær idé

Siden 2016 har stadig flere land, både diktaturer og demokratier, innført lover som forbyr spredning av feilinformasjon. Det finnes en rekke eksempler på at disse lovene i realiteten er verktøy for å knuse dissidenter og å stilne fri journalistikk. Selv i demokratiske land, hvor lovene forsøksvis er innrettet for å unngå nettopp dette, er det en fare for at de kan misbrukes. Disse begrensningene av ytringsfriheten er begrunnet med argumenter hentet fra debatten om feil- og desinformasjon.

Selv om kampen mot desinformasjon utgir seg for å være teknologikritisk, gir den større makt til teknologigigantene. Kravet om at de skal «gjøre mer» for å fjerne feilinformasjon, innebærer at de i større grad overvåker og kontrollerer kommunikasjonen vår, enten på eget initiativ eller under kommando fra myndighetene. I motsetning til redaktørstyrte medier, de gamle portvokterne, har ikke disse nye portvokterne selskaper noen forpliktelse til offentlighetsidealer.

Forestillingen om at vi lever i en tid av post-sannhet, antyder at det fantes en tid av sannhet som tok slutt i 2016. Det er en fortelling som reduserer demokratisk politikk til å handle om hva som er sant, og dermed dreier det vekk fra dets egentlige kjerne: at folk faktisk får påvirke politikken. Om dette ikke skaper stor bekymring i Davos, bør det i alle fall skremme oss andre.