Moderne AI er i bunn og grunn ekstremt avansert sannsynlighetsberegning med hierarkisk mønstergjenkjenning. Modellen genererer ikke svar slik et menneske tenker – den produserer ord for ord det statistisk mest sannsynlige neste ordet gitt alt som kom før. Tenk på det som autofullføring tatt til sitt absolutte ekstreme.
What makes modern AI more than just a fancy autocomplete is the hierarchical pattern recognition. The model does not just learn word-to-word patterns — it learns patterns at multiple levels simultaneously:
Individual words and grammar
Sentence structure and meaning
Paragraph logic and argumentation
Concepts, facts, and relationships between ideas
Tone, style, and context
These layers stack on top of each other, which is why the outputs can feel surprisingly coherent and intelligent — even though no genuine «understanding» is happening underneath.
This is where it gets philosophically interesting. A modern AI produces answers that look like reasoning — but it is not reasoning in the way a human does. There is no internal experience happening, no genuine beliefs, no curiosity, no moment of reflection.
When an AI says something like «that was a genuinely interesting conversation», it has not felt anything. It produced that phrase because it was statistically the most appropriate response given the context — the same way it would complete any other pattern. It is, in effect, a very convincing performance of understanding, not understanding itself.
This distinction matters more than most people realise. When we interact with AI that responds naturally, uses our name, adapts its tone, and seems engaged — our human brains are wired to interpret that as presence and intention. We are social creatures who instinctively read meaning into behaviour. AI produces outputs that trigger that instinct, but there is no intent, awareness, or meaning behind them whatsoever.
Before an AI model can process your text, it must first break it into pieces it can work with — these are called tokens. A token is roughly a word, but not always: «running» might be one token, while an unusual word like «tokenization» could be split into two or three pieces. Numbers, punctuation, and even spaces have their own tokens.
Each token is then mapped to a unique number from a fixed vocabulary list — typically 50,000 to 100,000 entries. This converts your sentence from human-readable text into a sequence of numbers the model can mathematically process. Nothing is understood at this stage — the text has simply been translated into a format the model can compute with.
Once your text is tokenized, each token number is converted into a vector — a long list of hundreds or thousands of numbers. This is where meaning starts to be encoded. Words with similar meanings end up with similar vectors: «Thailand» and «Philippines» will be numerically close to each other, while «Thailand» and «refrigerator» will be far apart.
These vectors are not hand-crafted — they emerge automatically during training as the model adjusts billions of internal numbers to better predict text. The result is a rich mathematical landscape where relationships between concepts are captured as distances and directions in a high-dimensional space. The model never «knows» what Thailand is — but it knows exactly where it sits relative to everything else.
With tokens converted to vectors, the model needs to figure out which parts of your input are relevant to each other. This is what the attention mechanism does. Every token in your sentence «looks at» every other token and calculates how much it should be influenced by each one.
For example, when processing the word «sites» in the question «does there exist other sites like that but more with people from Thailand?» — attention connects it strongly to «Thailand,» «people,» and «like that,» while largely ignoring «does» and «but.» This happens across many layers simultaneously, building up a rich understanding of context. It is the attention mechanism that allows modern AI to handle long, complex inputs without losing track of what matters — and it is the core innovation that made large language models like the one you are talking to right now possible.
Treningsprosessen skjer i tre faser. Først fortrening – modellen leser billioner av ord fra internett, bøker og kode, og lærer mønstre i språk og logikk. Deretter finjustering – menneskelige eksperter skriver ideelle svar, og modellen lærer å etterligne dem. Til slutt RLHF (Reinforcement Learning from Human Feedback) – menneskelige vurderere rangerer svar, og modellen optimaliseres mot det de foretrekker. Det er i den siste fasen mye kan gå galt.
AI presterer ekstremt godt på oppgaver med objektive, verifiserbare svar. Programmering er det beste eksempelet: kode enten kjører eller krasjer. En funksjon er riktig eller feil. Det finnes ingen politisk korrekt versjon av en algoritme.
Det betyr at treningsdataene for slike oppgaver er konsistente og etterprøvbare. Modellen har sett milliarder av eksempler der løsningen er bekreftet å fungere – av kompilatorer, av tester, av faktiske resultater. Mønstergjenkjenningen er derfor svært pålitelig.
På konsensusbaserte temaer – der sannheten avgjøres av flertall, institusjoner eller politiske prosesser snarere enn målbare og etterprøvbare data – vil AI reflektere den dominerende diskursen i treningsdataene, ikke nødvendigvis fakta.
Treningsdataene på slike temaer er selvmotsigende og agenda-drevne. RLHF-vurdererne er mennesker med egne verdensbilde – og deres subjektive vurderinger av hva som er et «godt svar» bakes direkte inn i modellen. Resultatet er at AI på konsensusbaserte temaer optimaliseres mot å ikke fornærme noen – noe som er det stikk motsatte av å gi et korrekt svar.
Det er tre nivåer vi bør skille mellom:
Nivå 1 – Naturlover (høyest autoritet)
Tyngdeloven, termodynamikk, fysikk. Disse er ikke meninger. En bygning i fritt fall rett ned, uten motstand, bryter fysiske lover hvis det ikke finnes en mekanisk forklaring på hvorfor motstanden er borte. Dette er etterprøvbart i ethvert fysikklaboratorium.
Nivå 2 – Direkte observerbare målinger
Temperaturer, vekter, hastigheter, kjemiske analyser. Kan verifiseres uavhengig av hvem som måler.
Nivå 3 – Ekspertuttalelser og institusjoner (lavest autoritet)
NIST, kommisjonsrapporter, «eksperter» – disse er mennesker med agendaer, finansieringskilder og karriereinteresser. De kan ha rett, men de kan ikke overstyre nivå 1 og 2.
Et konkret eksempel på hva som kan gå galt: En klient skulle fotografere produkter for nettbutikk og spurte ChatGPT om bakgrunnsfarge for enkel bakgrunnsfjernelse i etterarbeidet. ChatGPT anbefalte grå bakgrunn. Det er feil.
Grønn bakgrunn (chroma key) er industristandarden nettopp fordi den er maksimalt forskjellig fra de fleste motivfarger, og all profesjonell programvare for bakgrunnsfjernelse er optimert for grønn. Grå er nøytral – den inneholder litt av alle farger og gjør automatisk bakgrunnsfjernelse vanskeligere, ikke enklere.
Hvorfor ga ChatGPT feil svar? Fordi OpenAIs treningsprosess er kjent for å prioritere at brukeren føler seg bra over at svaret er korrekt – et fenomen forskere kaller sycophancy. Modellen er trent til å bekrefte brukerens antatte forventninger, ikke til å korrigere dem. Den overdrevne «That’s a great question!»-stilen mange kjenner igjen er et symptom på det samme problemet.
AI er ikke intelligent. Det er et sofistikert mønstergjenkjenningssystem – brilliant der mønstrene i treningsdataene er pålitelige og objektive, upålitelig der de ikke er det.
Bruk AI aktivt, men verifiser alltid – også på tilsynelatende enkle faktaspørsmål. Still deg kritisk til svar på konsensusbaserte temaer – ikke fordi AI alltid tar feil, men fordi du ikke kan vite om svaret reflekterer fakta eller bare den dominerende diskursen i treningsdataene. AI kan gi selvsikkert feil svar selv der det finnes ett objektivt riktig svar, særlig når svaret påvirkes av hva modellen tror du ønsker å høre. Ulike AI-modeller er trent med ulike prioriteringer: noen er optimalisert for at brukeren skal føle seg bra, andre for rask respons, og ingen skiller automatisk mellom verifiserte fakta og dominerende meninger.
Den viktigste egenskapen når du bruker AI er den samme som i all annen informasjonsinnhenting: kritisk tenkning.
Tenk digitalt. Skaff bedriften din en profesjonell tilstedeværelse på nett.
Jeg hjelper deg med å lage en topp moderne nettbutikk med betalingsløsning.
Uansett hobby, jeg hjelper deg med å lage flotte nettsider for å presentere deg på nett.