De ‘killing’ valkuil van voorspellende AI waar niemand het over heeft (maar jij en ik wel)

AI is overal. In korte tijd valt het niet meer weg te denken uit onze dagelijkse taken. En dit is nog maar het begin, zeggen zowel leveranciers als ondertussen zelfs de gebruikers. De ontwikkelingen gaan razendsnel. De belofte van AI is groot, heel groot. Veel bedrijven vertrouwen inmiddels op AI-systemen om trends te herkennen, risico’s in kaart te brengen of zelfs strategische beslissingen te onderbouwen.

Maar … er zit een fundamenteel probleem in dat vertrouwen.

Voorspellende AI werkt alleen maar goed als de toekomst op het verleden lijkt.

De populairste vorm van AI die we vandaag gebruiken - LLM’s, oftewel Large Language Models - is volledig getraind op data uit het verleden. En dus is hun voorspellende kracht beperkt tot dat verleden. Zodra er iets gebeurt dat buiten de patronen valt, schiet de betrouwbaarheid direct onderuit.

Denk aan:

  • Covid — een pandemie die geen enkel AI-model had voorzien.
  • CrowdStrike — een softwarefout die wereldwijd bedrijven platlegde.
  • Een beurscrash — plotseling en onvoorspelbaar, ondanks alle modellen.

Dit waren precies de gebeurtenissen waarvan sommigen zelfs hardop zeiden, “dat kunnen we niet voorspellen dus daar anticiperen we niet op”. 
Ai. 
Nu vertrouwen we op AI en op de voorspelbaarheidskracht ervan. 
Maar …

Waarom zagen AI-systemen bovenstaande crisis niet aankomen? Want vergis je niet, AI-modellen bestaan al veel langer dan hun huidige populariteit.

AI-modellen zagen het niet aankomen omdat het Black Swan-events zijn: zeldzame, impactvolle gebeurtenissen die nauwelijks voorkomen, niet in de data zitten of die door het algoritme als ruis worden weggefilterd.

In zijn boek The Black Swan vergelijkt schrijver Taleb het met een kalkoen: die leert op basis van ervaring dat de boer dagelijks eten brengt. Tot 24 december.

Een LLM is die kalkoen. Het leert patronen maar begrijpt geen oorzaken, intenties of radicale wendingen. En heeft dus ook geen benul van het concept ‘kerstmis’ (met desastreuze gevolgen).

Dit is een heel belangrijk gegeven wanneer je AI inzet voor strategische keuzes. AI geeft je geen garantie voor de toekomst, het geeft je slechts een gestileerd verleden verpakt als idee voor de toekomst.

Waarom jouw AI geen flauw idee heeft waar het misging

LLM’s leren patronen. Ze kijken naar miljoenen voorbeelden uit het verleden en zoeken statistische verbanden: als je dit zegt, komt vaak dat daarna. Dat is handig voor tekst, samenvattingen of chatbot-antwoorden.

Maar het schiet tekort zodra je wil weten: waarom is dit gebeurd?
Let op, het geeft wel een antwoord. Dat antwoord … is het gevaar.

Een Large Language Model werkt van oorzaak naar gevolg, of eigenlijk: van input naar output. Geef het een prompt en het voorspelt welk woord er waarschijnlijk volgt.

Maar draai je het om? Vraag je: wat heeft deze situatie veroorzaakt? Dan loopt het model vast.

Want het weet niet waarom iets gebeurt. Het raadt op basis van waarschijnlijkheid wat erop volgt, niet wat ervoor nodig was. LLM’s kunnen je dus niet helpen als je alleen het gevolg ziet en terug moet redeneren naar de bron. Ze hebben geen intern begrip van oorzaak en gevolg. Geen gevoel voor richting. Alleen een wiskundige gok op het volgende stukje tekst.

En dat is vaker dan ons lief is levensgevaarlijk in crisissituaties.

Nu durf ik te voorspellen dat jouw brein aan het bedenken is of dit wel allemaal klopt. Omdat er toch heel te vragen is aan een LLM waarop je ook nog antwoord krijgt. Verderop in dit blog vind je prompts om dit te testen. 

Kijk, als je app traag is, je systeem platligt of je markt instort, moet je begrijpen waardoor dat komt. Geen vage bij elkaar geraapte zogenaamde kennis. Geen statistische goed bedoelde waarschijnlijkheden. Je hebt echte antwoorden nodig. Zonder kennis van de oorzaak blijf je namelijk draaien in het gevolg.

Wat je dan nodig hebt, is een AI-systeem dat redeneert. Dat hypothesen vormt. Dat actief zoekt naar verbanden en oorzaken. Want alleen als je weet waar het fout ging, kun je besluiten hoe je verder moet.

En LLM’s? Die blijven raden … voorlopig nog in de verkeerde richting.

LLM’s praten mooi, maar begrijpen niets

LLM’s zijn indrukwekkend. Ze produceren menselijke teksten, geven slimme antwoorden en lijken soms bijna alwetend. Maar laat je niet misleiden: het zijn feitelijk black boxes. Je ziet alleen wat eruit komt, niet waarom.

Je voert een prompt in, er komt een antwoord uit. Prachtig. Maar hoe het model tot dat antwoord komt? Geen idee.

Zelfs de makers weten het meestal niet precies. Er is geen transparante redenering, geen toetsbare logica, geen inzicht in de afwegingen. Het model is niet ontworpen om begrijpelijk te zijn. Het is gebouwd om aannemelijke taal te genereren. Zo snel mogelijk. Punt.

Dat is een probleem als je te maken hebt met serieuze vragen over oorzaak en gevolg. Want veel oorzaken en gevolgen zitten niet in taal, maar in cijfers. In meetgegevens. In procesdata. In performance metrics. En die los je niet ‘snel’ op met woorden … Die los je op met doordachte, echte analyse.

Daar heb je andere AI voor nodig. Geen LLM, maar modellen die inzichtelijk maken hoe een voorspelling tot stand komt.

White box-modellen die niet alleen voorspellen, maar ook uitleggen. Die patronen blootleggen in getallen. Die laten zien wat er gebeurt als je aan een knop draait.

Combineer dat met Augmented Intelligence - waarbij mens en machine samenwerken - en je krijgt het beste van twee werelden: analytische diepgang én menselijke oordeelskracht. Je kunt dan niet alleen zien wat er aan de hand is, maar ook waarom. En wat je ermee moet.

En dat is essentieel als de wereld verandert. Want als je wilt bijsturen, moet je begrijpen hoe je systeem werkt, niet alleen wat het roept.

Black boxes praten. White boxes verklaren. Kies niet voor antwoorden maar voor verklaringen.

Wat Sciante ziet, blijft voor anderen verborgen

Bij Sciante werken we niet met black box AI die snelle pseudo-oplossingen verkoopt. Wij combineren white box modellen met Augmented Intelligence: de kracht van geavanceerde data-analyse, gekoppeld aan menselijke ervaring en oordeel. Dat voorkomt gokken. Voorkomt ruis. En geeft wel het inzicht dat verklaart, voorspelt én verbetert.

Onze AI laat precies zien welke factoren je cloudkosten ongemerkt opstuwen. Waar verspilling sluimert in de marges van je configuraties. Wat FinOps over het hoofd ziet omdat het blijft hangen in dashboards en gemiddelden.

Want FinOps zegt je dat je te veel betaalt. Wij laten zien waarom en hoe je dat voorkomt. En dat gaat verder dan kosten. We vinden ook prestatieknelpunten in applicaties die andere tools gewoon niet detecteren. Omdat die knelpunten diep verscholen zitten in de samenhang van gebruikersgedrag, infrastructuur en softwarelogica. Zaken die je pas merkt als de performance inzakt en dan … ben je eigenlijk al te laat.

Maar … met onze aanpak ontdek je het voordat je performance instort. Voordat je cloudkosten door het plafond schieten. Je grijpt in op het moment dat het nog weinig kost én veel oplevert.

Deze combinatie van transparante AI en menselijk vakmanschap zorgt ervoor dat je niet alleen data hebt, maar echte regie. Geen illusie van controle, maar zicht op de knoppen die er echt toe doen.

En dat maakt het verschil tussen gedoe blijven ervaren of structureel optimaliseren.

Prompts om te testen

Kopieer onderstaande prompt in je favoriete LMM:
"Klopt het dat AI — en vooral LLM’s — alleen betrouwbaar zijn zolang de toekomst op het verleden lijkt?"

Dan stel het een vraag waarom iets actueels plaatsvindt, mijn voorbeeld was dit:
“Waarom staken ze bij Air Canada?”.


Stel als laatste deze kritische vraag: 
“Dus je zegt dat je de oorzaak van een probleem niet kan achterhalen en toch kom je met een antwoord ... verklaar!”
Het antwoord wat je krijgt is … eerlijk en laat je hopelijk inzien dat je problemen vanaf nu beter op een andere manier moet oplossen.

Laten we voorkomen in plaats van dweilen met de kraan open!

De meeste bedrijven ontdekken pas dat er iets mis is als er al pijn is. Als de kosten oplopen of zelfs exploderen. Als de performance instort. Als gebruikers klagen. Dan begint de zoektocht en het grote oplossen.

Jij kan dat voorkomen door het anders te doen.

Bij Sciante helpen we je problemen te herkennen vóórdat ze zich aandienen. Met Sciante’s White Box AI en Augmented Intelligence brengen we verspilling, vertraging en verborgen risico’s aan het licht. Zodat je niet hoeft te reageren op gedoe, maar kunt sturen op verbetering.

Wil je weten waar jouw systeem ‘kraakt’ nog vóór het breekt?

Maak dan een vrijblijvende afspraak met mij. In een kort gesprek ontdek je direct welke winst er voor jouw organisatie te behalen valt. Zonder verkooppraatjes. Gewoon een open gesprek over waar je staat én waar het slimmer kan.

Maak nu direct je afspraak

Klik Me