NETT.PRO

AI: Brilliant til programmering - Elendig til politikk

Moderne AI er i bunn og grunn ekstremt avansert sannsynlighetsberegning med hierarkisk mønstergjenkjenning. Modellen genererer ikke svar slik et menneske tenker – den produserer ord for ord det statistisk mest sannsynlige neste ordet gitt alt som kom før. Tenk på det som autofullføring tatt til sitt absolutte ekstreme.

ki-kunstig-intelligens-fakta-eller-vitenskap

Treningsprosessen skjer i tre faser. Først fortrening – modellen leser billioner av ord fra internett, bøker og kode, og lærer mønstre i språk og logikk. Deretter finjustering – menneskelige eksperter skriver ideelle svar, og modellen lærer å etterligne dem. Til slutt RLHF (Reinforcement Learning from Human Feedback) – menneskelige vurderere rangerer svar, og modellen optimaliseres mot det de foretrekker. Det er i den siste fasen mye kan gå galt.

Når AI fungerer brillant

AI presterer ekstremt godt på oppgaver med objektive, verifiserbare svar. Programmering er det beste eksempelet: kode enten kjører eller krasjer. En funksjon er riktig eller feil. Det finnes ingen politisk korrekt versjon av en algoritme.

Det betyr at treningsdataene for slike oppgaver er konsistente og etterprøvbare. Modellen har sett milliarder av eksempler der løsningen er bekreftet å fungere – av kompilatorer, av tester, av faktiske resultater. Mønstergjenkjenningen er derfor svært pålitelig.

AI fungerer bra for:

  • Matematikk og logiske problemer
  • Språkvask og tesktstrukturering
  • Oversettelse
  • Tekniske analyser med klare kriterier
  • Faktabaserte oppslagsspørsmål

Når AI blir upålitelig

konsensusbaserte temaer – der sannheten avgjøres av flertall, institusjoner eller politiske prosesser snarere enn målbare og etterprøvbare data – vil AI reflektere den dominerende diskursen i treningsdataene, ikke nødvendigvis fakta.

Treningsdataene på slike temaer er selvmotsigende og agenda-drevne. RLHF-vurdererne er mennesker med egne verdensbilde – og deres subjektive vurderinger av hva som er et «godt svar» bakes direkte inn i modellen. Resultatet er at AI på konsensusbaserte temaer optimaliseres mot å ikke fornærme noen – noe som er det stikk motsatte av å gi et korrekt svar.

Hvorfor velge WordPress

Om "faktabaserte oppslagsspørsmål"

hva er egentlig en kilde til fakta?

Det er tre nivåer vi bør skille mellom:

Nivå 1 – Naturlover (høyest autoritet)
Tyngdeloven, termodynamikk, fysikk. Disse er ikke meninger. En bygning i fritt fall rett ned, uten motstand, bryter fysiske lover hvis det ikke finnes en mekanisk forklaring på hvorfor motstanden er borte. Dette er etterprøvbart i ethvert fysikklaboratorium.

Nivå 2 – Direkte observerbare målinger
Temperaturer, vekter, hastigheter, kjemiske analyser. Kan verifiseres uavhengig av hvem som måler.

Nivå 3 – Ekspertuttalelser og institusjoner (lavest autoritet)
NIST, kommisjonsrapporter, «eksperter» – disse er mennesker med agendaer, finansieringskilder og karriereinteresser. De kan ha rett, men de kan ikke overstyre nivå 1 og 2.

Dette gjelder blant annet:

  • Politikk og samfunnsdebatt
  • Økonomiske spådommer
  • Historiske tolkningsspørsmål
  • Vitenskapelige felt der finansiering og institusjonelle agendaer spiller inn
  • Alle spørsmål der «riktig svar» avhenger av verdensbilde
Selv faktabaserte svar fra AI er bare så pålitelige som kildene de bygger på. Naturlover og direkte målbare observasjoner er overordnet ekspertuttalelser og institusjonsrapporter – men AI skiller ikke automatisk mellom disse nivåene.

ChatGPT og sycophancy-problemet

Et konkret eksempel på hva som kan gå galt: En klient skulle fotografere produkter for nettbutikk og spurte ChatGPT om bakgrunnsfarge for enkel bakgrunnsfjernelse i etterarbeidet. ChatGPT anbefalte grå bakgrunn. Det er feil.

Grønn bakgrunn (chroma key) er industristandarden nettopp fordi den er maksimalt forskjellig fra de fleste motivfarger, og all profesjonell programvare for bakgrunnsfjernelse er optimert for grønn. Grå er nøytral – den inneholder litt av alle farger og gjør automatisk bakgrunnsfjernelse vanskeligere, ikke enklere.

Hvorfor ga ChatGPT feil svar? Fordi OpenAIs treningsprosess er kjent for å prioritere at brukeren føler seg bra over at svaret er korrekt – et fenomen forskere kaller sycophancy. Modellen er trent til å bekrefte brukerens antatte forventninger, ikke til å korrigere dem. Den overdrevne «That’s a great question!»-stilen mange kjenner igjen er et symptom på det samme problemet.

Konklusjon

AI er ikke intelligent. Det er et sofistikert mønstergjenkjenningssystem – brilliant der mønstrene i treningsdataene er pålitelige og objektive, upålitelig der de ikke er det.

Bruk AI aktivt, men verifiser alltid – også på tilsynelatende enkle faktaspørsmål. Still deg kritisk til svar på konsensusbaserte temaer – ikke fordi AI alltid tar feil, men fordi du ikke kan vite om svaret reflekterer fakta eller bare den dominerende diskursen i treningsdataene. AI kan gi selvsikkert feil svar selv der det finnes ett objektivt riktig svar, særlig når svaret påvirkes av hva modellen tror du ønsker å høre. Ulike AI-modeller er trent med ulike prioriteringer: noen er optimalisert for at brukeren skal føle seg bra, andre for rask respons, og ingen skiller automatisk mellom verifiserte fakta og dominerende meninger.

Den viktigste egenskapen når du bruker AI er den samme som i all annen informasjonsinnhenting: kritisk tenkning.

Proff hjemmeside til din bedrift

Tenk digitalt. Skaff bedriften din en profesjonell tilstedeværelse på nett.

Drømmer du om å starte egen nettbutikk?

Jeg hjelper deg med å lage en topp moderne nettbutikk med betalingsløsning.

Har du en hobby du ønsker å presentere?

Uansett hobby, jeg hjelper deg med å lage flotte nettsider for å presentere deg på nett.