Skip to content

Hoe AI Echt Werkt

De basis begrijpen verandert hoe je AI gebruikt — het mentale model dat je resultaten transformeert.

INFO

  • Tijd: ~15 minuten
  • Moeilijkheid: Beginner
  • Wat je leert: Het mentale model dat verandert hoe je AI gebruikt

Wat Komt er aan Bod

  • Het Mentale Model - AI voorspelt woorden op basis van patronen, niet "denken"
  • Wat Zijn Modellen - GPT-4, Claude, Gemini begrijpen en wat nieuwe releases betekenen
  • Hallucinaties - Waarom AI zelfverzekerd is, zelfs als het fout zit
  • Context Windows - Het beperkte "werkgeheugen" van AI
  • AI is Stateless - Waarom AI niet "leert" van je gesprekken
  • Training vs Zoeken - Het verschil tussen wat AI "weet" en wat het opzoekt
  • Waarom AI Midden in een Antwoord Stopt - Output-limieten begrijpen
  • Praktische Implicaties - Hoe deze kennis je resultaten verbetert

Het Mentale Model

Wanneer je iets intypt in ChatGPT of Claude, is dit wat er daadwerkelijk gebeurt:

AI voorspelt het volgende woord. Dat is het. Het kijkt naar alles wat je hebt geschreven en voorspelt welk woord er als volgende moet komen, en herhaalt dit proces duizenden keren om een antwoord te vormen.

Dit is geen "denken" in menselijke zin. Het is extreem geavanceerde patroonherkenning. De AI is getraind op enorme hoeveelheden tekst van het internet — boeken, artikelen, code, gesprekken — en heeft patronen geleerd over hoe woorden op andere woorden volgen.

Zie het als de meest geavanceerde autocomplete ter wereld. Je telefoon suggereert "je" nadat je "dank" typt, omdat het dat patroon miljoenen keren heeft gezien. AI doet hetzelfde, maar op een schaal en complexiteit die verrassend samenhangende antwoorden oplevert.

Waarom Dit Belangrijk Is

Dit begrijpen verandert hoe je AI gebruikt:

  • AI "weet" geen dingen - Het herkent patronen die op kennis lijken
  • Het kan zichzelf niet factchecken - Het heeft geen manier om te verifiëren of wat het zegt waar is
  • Zelfvertrouwen betekent geen nauwkeurigheid - Het voorspelt zelfverzekerd klinkende tekst omdat dat is hoe goede antwoorden eruitzien

Patroonherkenning in Actie

AI is uitstekend in taken waarbij patronen overvloedig aanwezig zijn in de trainingsdata:

TaakWaarom AI hier goed in is
E-mails schrijvenMiljoenen e-mails gezien
Concepten uitleggenTalloze uitleg gezien
Code schrijvenGetraind op enorme code-repositories
Tekst samenvattenVeel voorbeelden van samenvattingen gezien

AI heeft moeite met:

  • Nieuwe problemen waar het geen patronen voor heeft gezien
  • Zeer recente gebeurtenissen (trainingsdata heeft een afsluitdatum)
  • Nicheonderwerpen met weinig trainingsdata
  • Taken die verificatie in de echte wereld vereisen

Nooit Twee Keer Hetzelfde

Voer exact dezelfde prompt twee keer uit en je krijgt verschillende antwoorden. Dit is geen bug — het is by design.

Bij het voorspellen van het volgende woord kiest AI niet altijd de meest waarschijnlijke optie. In plaats daarvan maakt het een selectie uit de topcandidaten met enige willekeur. Dit wordt geregeld door een instelling genaamd temperature:

  • Lage temperature → Meer voorspelbare, gerichte antwoorden
  • Hoge temperature → Meer creatieve, gevarieerde antwoorden

Dit betekent:

  • Verwacht geen identieke outputs - Zelfs het kopiëren en plakken van dezelfde prompt levert variaties op
  • Genereer opnieuw als je ontevreden bent - De volgende poging kan beter zijn
  • Kleine verschillen zijn normaal - Toon, woordkeuze en structuur zullen variëren

Opmerking over Temperature

Je kunt temperature niet aanpassen in de consumentenapps van ChatGPT of Claude — dit is een API-only instelling voor ontwikkelaars. Wanneer je ChatGPT.com of Claude.ai gebruikt, kiest de AI-aanbieder de temperature voor je. Voor dagelijks gebruik kun je de variatie gewoon omarmen — het levert vaak betere ideeën op.


Wat Zijn Modellen?

Je hoort over "GPT-4," "Claude Sonnet," "Gemini Pro" — dit zijn allemaal modellen. Een model is het getrainde neurale netwerk dat de daadwerkelijke voorspellingen doet. Zie het als het "brein" dat de AI-tool aandrijft.

Waarom Verschillende Modellen Bestaan

Bedrijven trainen verschillende modellen met verschillende afwegingen:

AfwegingVoorbeeld
Snelheid vs. capaciteitKleinere modellen reageren sneller maar kunnen minder complexiteit aan
Kosten vs. kwaliteitGrotere modellen zijn duurder om te draaien maar leveren betere resultaten
Algemeen vs. gespecialiseerdSommige modellen blinken uit in code, andere in conversatie

Daarom zie je modelnamen als "Claude Sonnet" (gebalanceerd) vs "Claude Haiku" (snel en goedkoop) vs "Claude Opus" (meest capabel).

Wat "Nieuw Model" Betekent

Wanneer een bedrijf een nieuw model aankondigt, hebben ze meestal:

  • Getraind op meer of betere data
  • De onderliggende architectuur verbeterd
  • Mogelijkheden uitgebreid (langer context window, beter redeneren, nieuwe functies)

Koppen zullen beweren dat het nieuwe model "X% beter" is — maar beter waarin?

Benchmarks Vertellen Niet het Hele Verhaal

AI-bedrijven publiceren benchmarkscores die laten zien hoe modellen presteren op gestandaardiseerde tests. Het probleem:

  • Benchmarks testen specifieke taken - Jouw werk is waarschijnlijk geen gestandaardiseerde test
  • Modellen kunnen geoptimaliseerd worden voor benchmarks - Hoge scores garanderen geen prestaties in de echte wereld
  • Jouw use case is uniek - Een model dat het "beste" is in code is misschien niet het beste voor je marketingteksten

Beoordeel Zelf

Wanneer een nieuw model lanceert, test het op je daadwerkelijke taken — niet op hypothetische. Voer dezelfde prompts uit die je dagelijks gebruikt en vergelijk de resultaten. Jouw ervaring telt meer dan welke benchmark dan ook.


Hallucinaties: Zelfverzekerd maar Fout

AI-"hallucinaties" zijn wanneer het model informatie genereert die gezaghebbend klinkt maar volledig verzonnen is. Dit gebeurt omdat:

  1. AI optimaliseert voor plausibel klinkende tekst - Als er om een bron wordt gevraagd, genereert het iets dat eruitziet als een bron
  2. Het kan feit niet van fictie onderscheiden - Zowel echte als verzonnen feiten zijn gewoon patronen om te matchen
  3. Het weet niet wat het niet weet - Er is geen intern "ik weet het niet zeker" signaal

Veelvoorkomende Voorbeelden van Hallucinaties

  • Nepbronnen - Academische papers die niet bestaan, met overtuigend klinkende auteurs en tijdschriften
  • Verzonnen statistieken - "Onderzoek toont aan dat 73% van..." zonder echte bron
  • Zelfverzekerde technische fouten - Code die er goed uitziet maar subtiele bugs bevat
  • Fictieve gebeurtenissen - Gedetailleerde beschrijvingen van dingen die nooit zijn gebeurd

Belangrijk

AI presenteert verzonnen feiten met dezelfde zelfverzekerdheid als echte. Verifieer belangrijke informatie altijd bij primaire bronnen.


Context Windows: Het Werkgeheugen van AI

AI heeft een beperkt "context window" — de hoeveelheid tekst die het tegelijkertijd kan verwerken. Zie het als werkgeheugen.

Claude: ~100.000+ tokens (ongeveer 75.000 woorden) ChatGPT: Varieert per model (8k tot 128k tokens)

Wat Dit in de Praktijk Betekent

  • Lange gesprekken verslechteren - Naarmate de context volloopt, kan AI eerdere delen "vergeten"
  • Grote documenten uploaden - AI kan details kwijtraken in zeer lange bestanden
  • Opnieuw beginnen helpt - Wanneer antwoorden vreemd worden, werkt een nieuw gesprek vaak beter

Signalen dat je Contextlimieten Bereikt

  • AI spreekt zichzelf tegen over iets dat het eerder zei
  • Het vergeet details die je hebt genoemd
  • Antwoorden worden minder samenhangend
  • Het begint zichzelf te herhalen

Oplossing: Begin een nieuw gesprek en geef de belangrijkste context vooraf.


AI is Stateless: Het "Leert" Niet van Jou

Dit is een veelvoorkomend misverstand: AI leert niet van je gesprekken.

Wanneer je chat met ChatGPT of Claude, kan het voelen alsof de AI je leert kennen. Het onthoudt wat je eerder zei, verwijst terug naar je context en bouwt voort op eerdere antwoorden. Dit creëert een illusie van leren — maar het is precies dat, een illusie.

Hoe Gesprekken Echt Werken

Achter de schermen gebeurt het volgende telkens wanneer je een bericht stuurt:

  1. Alles wordt samengevoegd - Je nieuwe bericht wordt samengevoegd met de volledige gespreksgeschiedenis
  2. AI ontvangt alles tegelijk - Het is alsof het één groot document ontvangt, geen vloeiend gesprek
  3. AI voorspelt het antwoord - Op basis van deze gecombineerde tekst, zonder daadwerkelijk geheugen

Wanneer je een nieuw gesprek begint, heeft de AI nul herinnering aan eerdere chats. Het is een volledig nieuwe start. Het "context window" is geen geheugen — het is gewoon het huidige gesprek dat herhaaldelijk wordt ingevoerd.

Waarom Dit Belangrijk Is

  • AI verbetert niet door met jou te praten - Het wordt niet beter in jouw specifieke taken over tijd
  • Elke sessie is onafhankelijk - De doorbraken van gisteren worden niet meegenomen
  • Je kunt het niet "trainen" door gebruik - Hoe vaak je ook je voorkeuren uitlegt

De Uitzondering: Projecten en Geheugenfuncties

Zowel ChatGPT als Claude bieden nu manieren om context te bewaren:

  • Projecten laten je instructies en documenten opslaan die over gesprekken heen blijven bestaan
  • ChatGPT Geheugen slaat specifieke feiten op die je het vraagt te onthouden

Deze functies veranderen niet hoe de onderliggende AI werkt — ze voegen opgeslagen context automatisch toe aan het begin van elk gesprek. Meer hierover in Les 3.


Training vs Zoeken: Wat AI "Weet" vs. Wat Het Opzoekt

AI-kennis komt uit twee zeer verschillende bronnen, en dit begrijpen is belangrijk:

Getrainde Kennis (Ingebouwd)

Wanneer een AI-model wordt gemaakt, wordt het getraind op enorme hoeveelheden tekst. Deze kennis is "ingebakken":

  • Heeft een afsluitdatum - GPT-4 weet mogelijk niets na januari 2024
  • Kan niet worden bijgewerkt - Eenmaal getraind, ligt de kennis van het model vast
  • Kan verouderde informatie bevatten - Feiten veranderen, maar het model niet

Dit is wat AI standaard "weet" wanneer je het een vraag stelt.

Zoeken/Ophalen (Realtime)

Moderne AI-tools kunnen ook het web doorzoeken of geüploade documenten raadplegen:

  • Actuele informatie - Kan het nieuws van vandaag vinden, laatste prijzen, recente gebeurtenissen
  • Expliciet opgehaald - AI zoekt het op, in plaats van uit het geheugen te genereren
  • Betrouwbaarder voor feiten - Controleert daadwerkelijk bronnen in plaats van patroonherkenning

Hoe je het Verschil Herkent

Als je vraagt over...AI gebruikt waarschijnlijk...Betrouwbaarheid
Algemene concepten (fotosynthese, WO2)Getrainde kennisGoed voor gevestigde feiten
Recente gebeurtenissen (aandelenkoers vandaag)Zoeken (indien ingeschakeld)Goed als zoeken aan staat
Obscure of nicheonderwerpenGetrainde kennisKan hallucineren
Je geüploade documentenOphalenGoed — het leest het daadwerkelijke bestand

Let Op

Wanneer zoeken is uitgeschakeld of niet beschikbaar is, zal AI nog steeds zelfverzekerd vragen over recente gebeurtenissen beantwoorden — met verouderde of verzonnen informatie. Controleer altijd of je AI-tool webtoegang heeft ingeschakeld wanneer je vraagt over actuele onderwerpen.


Waarom AI Soms Midden in een Antwoord Stopt

Is het je opgevallen dat AI soms midden in een antwoord stopt? Het is niet willekeurig — er zijn specifieke redenen:

Output Token-limieten

Net zoals er een limiet is op hoeveel AI kan lezen (context window), is er een limiet op hoeveel het kan schrijven in één antwoord:

  • ChatGPT: Meestal 4.000-8.000 tokens per antwoord
  • Claude: Meestal 4.000-8.000 tokens per antwoord

Wanneer de AI deze limiet bereikt, stopt het simpelweg — vaak midden in een zin.

Hoe je Verder Gaat

Als AI midden in een antwoord stopt:

  • Zeg "ga verder" - De AI gaat verder waar het gebleven was
  • Vraag om de rest - "Ga alsjeblieft verder waar je was gestopt"
  • Vraag om output in delen - "Geef me dit in delen, te beginnen met sectie 1"

Andere Redenen Waarom AI Kan Stoppen

SymptoomWaarschijnlijke oorzaakOplossing
Stopt midden in een zinOutput token-limietZeg "ga verder"
Stopt na een lang gesprekContext window volBegin een nieuw gesprek met de belangrijkste context
Stopt met een foutmeldingServer-/tarieflimietenWacht en probeer opnieuw
Geeft een zeer kort antwoordOmvang verkeerd begrepenVerduidelijk wat je nodig hebt met meer detail

Strategie voor Lange Content

Voor lange content (zoals gedetailleerde rapporten of documentatie), vraag AI om het vooraf in secties op te delen. Dit voorkomt onhandige onderbrekingen en geeft je natuurlijke stoppunten.


Wat Dit voor Jou Betekent

Nu je begrijpt hoe AI werkt, kun je het beter gebruiken:

Wees Specifiek

Vage invoer levert vage uitvoer op. De AI vult gaten met aannames.

In plaats van...Probeer...
"Schrijf een e-mail""Schrijf een e-mail van 3 alinea's aan een klant waarin je de projectvertraging uitlegt"
"Help me met code""Debug deze Python-functie die de som van een lijst moet teruggeven"
"Geef me ideeën""Geef me 5 marketingslogans voor een duurzaam koffiemerk gericht op millennials"

Geef Context

AI kan je gedachten niet lezen. Vertel het:

  • Wie je bent (je rol, expertiseniveau)
  • Wat je probeert te bereiken
  • Eventuele beperkingen of vereisten
  • Voorbeelden van wat je wilt

Verifieer Belangrijke Feiten

Voor alles wat consequenties heeft:

  • Controleer statistieken bij primaire bronnen
  • Verifieer of bronvermeldingen daadwerkelijk bestaan
  • Test code voordat je het gebruikt
  • Dubbelcheck bij gezaghebbende bronnen

Begin Opnieuw Wanneer Nodig

Als AI-antwoorden vreemd worden:

  • Begin een nieuw gesprek
  • Geef essentiële context vooraf
  • Probeer niet een verslechterd gesprek te "repareren"

Belangrijkste Inzichten

  • AI voorspelt woorden, het denkt niet - Het is geavanceerde patroonherkenning, geen redenering
  • Modellen zijn de getrainde "breinen" - Verschillende modellen hebben verschillende afwegingen; beoordeel nieuwe zelf
  • Zelfvertrouwen ≠ nauwkeurigheid - AI klinkt zelfverzekerd, zelfs wanneer het volledig fout zit
  • Hallucinaties zijn normaal - Verifieer belangrijke feiten altijd bij primaire bronnen
  • Context is beperkt - Begin opnieuw wanneer gesprekken verslechteren
  • AI is stateless - Het leert niet van je gesprekken; elke sessie begint vers
  • Training vs zoeken - AI "weet" waar het op getraind is; het "zoekt op" wat actuele informatie is
  • Output-limieten bestaan - AI kan midden in een antwoord stoppen; vraag gewoon om verder te gaan
  • Specificiteit wint - Duidelijke invoer levert betere uitvoer op

Want to explore AI automation for your business?

SFLOW helps Belgian companies implement practical AI solutions - from automated workflows to custom integrations with your existing systems.

Let's talk

SFLOW BV - Polderstraat 37, 2491 Balen-Olmen