Hoe menselijke psychologie de adoptie van AI vertraagt

Gepubliceerd op mei 31, 2025

Dit artikel wijkt iets af van onze gebruikelijke focus op ruimtelijke visualisatietechnologie. We belichten een universeel knelpunt: de kloof tussen de razendsnelle AI-innovatie en het veel tragere tempo waarin organisaties haar daadwerkelijk toepassen..

 

De AI-Paradox

AI domineert de headlines met verbluffende doorbraken, maar grootschalige toepassing blijft achter bij het potentieel. Waarom automatiseren organisaties hun kernprocessen niet? Waarom blijven krachtige AI-tools die efficiëntie en vernieuwing beloven vrijwel volledig ongebruikt?

Het antwoord zit waarschijnlijk niet in de technologie zelf, maar in iets fundamentelers: menselijke psychologie. Terwijl AI-modellen razendsnel beter worden, vormen diepgewortelde biases rond vertrouwen, risico en aansprakelijkheid het knelpunt. In dit artikel ontrafelen we die vaak onbewuste obstakels, illustreren we ze met praktijkvoorbeelden en laten we zien welke kansen er schuilen voor iedereen die ze weet te omzeilen.

Enkele cijfers onderstrepen het potentiële probleem: in McKinsey’s State of AI-onderzoek (2025) gebruikt een meerderheid van de bedrijven AI in minstens drie functies. Toch zijn nog steeds slechts een minderheid van de meeste bedrijfsprocessen überhaupt geautomatiseerd [1]. Bovendien zegt minder dan één op de drie burgers in veel technologisch ontwikkelde landen (waaronder Nederland) dat ze AI daadwerkelijk vertrouwen, ook al profiteren ze er achter de schermen regelmatig van. Wereldwijd geeft 61% van de mensen toe dat ze eerder huiverig dan enthousiast zijn over AI [14]. Deze statistieken onderstrepen een diepe kloof tussen de technologische gereedheid en de menselijke bereidheid tot adoptie.

 

De Weg naar Adoptie: Waarom We Aarzelen

Onze omgang met AI is allesbehalve rationeel; ze wordt gestuurd door diepgewortelde, vaak onbewuste psychologische patronen. Wie de adoptiekloof wil dichten, moet deze drempels eerst begrijpen.

  • De Aantrekkingskracht van het Vertrouwde (Status-Quo-Bias):
    We kiezen graag voor het pad dat we al kennen, zelfs als er een eenvoudiger, efficiënter alternatief is. Verandering voelt als mogelijk verlies en roept daarom weerstand op. In de architectuur-, engineering- en bouwsector (AEC) remt dit de overstap naar tools als Building Information Modeling (BIM) of geavanceerde bouwsoftware. BIM levert aantoonbaar minder clashes en scherpere budgetten, maar veel teams houden vast aan 2D-tekeningen omdat de leercurve risicovoller voelt dan de mogelijke kosten van fouten in een systeem waar ze bekend mee zijn [3].
  • De drang naar een Menselijk Gezicht (Vertrouwen & Antropomorfisme):
    We vertrouwen mensen, gezichten, stemmen, experts etc. vaker en eenvoudiger dan onbekende, anonieme algoritmen. Denk aan een veelvoorkomende reclame: een dokter, zelfs een acteur, die uitlegt waarom een bepaalde tandpasta beter voor je is. We vinden dit vaak overtuigender dan wanneer ons de wetenschappelijke studie zelf wordt getoond; het is het "white-coat effect". Dezelfde dynamiek achtervolgt AI. Onderzoek toont aan dat het toevoegen van een vriendelijke avatar, stem of menselijke tussenpersoon leidt tot een noemenswaardige stijging in waargenomen competentie en warmte van een AI systeem [4]. Hoewel antropomorfe signalen vertrouwen kunnen vergroten, is er een delicaat evenwicht; te mensachtig kan het "Uncanny Valley-effect" triggeren, wat leidt tot ongemak. Denk aan de chineese robots die meer en meer op echte mensen gaan lijken.

    Dit is waarom menselijke tussenpersonen cruciaal worden. Terwijl AI excelleert in het automatiseren van routinetaken, hebben mensen nog steeds de voorkeur voor complexe, hoogwaardige interacties die empathie vereisen. In de aandelenmarkt bijvoorbeeld, is 70-80% van de transacties op grote beurzen nu algoritmisch, toch blijven investeerders beheervergoedingen betalen aan een menselijke adviseur die op zijn beurt de bot om beslissingen vraagt.

  • De Noodzaak van Verantwoording:
    Wanneer een volledig zelfrijdende auto een andere auto schampt, haalt dat wereldwijd de voorpagina. Wanneer een menselijke bestuurder een auto total loss rijdt, is het ‘normaal verkeer’. We hebben een fundamentele behoefte om schuldigen aan te wijzen zodra er iets misgaat. Bij AI ontbreekt vaak een duidelijke persoon, waardoor een verantwoordelijkheidsvacuüm ontstaat. Psychologen noemen dit de moral crumple zone: in een hybridesysteem wordt de menselijke operator de zondebok, zelfs als de machine het meeste werk deed [7]. Dit voedt een bekend sentiment in de directiekamer: 'niemand wordt ontslagen omdat hij géén AI inzet, maar één AI-gerelateerde misser kan een loopbaan beëindigen' [48]. Wanneer AI faalt in een dienstverlening, verschuift de schuld bovendien vaak naar het bedrijf dat de technologie heeft ingezet [15].

    Deze inherente behoefte aan verantwoording vormt een aanzienlijke drempel voor AI-adoptie. Zolang wettelijke kaders nog niet volgroeid zijn (zoals te zien is bij de EU AI Act en Britse verzekeringsmodellen voor autonome voertuigen [24, 25]), zullen directies vaak terugvallen op mensgerichte processen waar de aansprakelijkheid wél duidelijk te verantwoorden is. En juist dat creëert een kans: bouw diensten die deze angst absorberen en bied betrouwbare, geauditeerde AI-workflows, zodat klanten een verantwoordelijke partner kunnen aanwijzen.

  • De Schaduw van Verlies (Verliesaversie):
    Eén zichtbare AI-fout wist duizend stille successen uit. Dit is een van de krachtigste psychologische principes die AI-adoptie hindert: verliesaversie, het idee dat we het vermijden van verlies veel zwaarder laten wegen dan het behalen van gelijkwaardige winst. De angst voor een zeldzame, catastrofale AI-fout (bijvoorbeeld een fout in het algoritme of een onbekende technische storing) weegt daardoor zwaarder dan de dagelijkse, bekende realiteit van menselijke feilbaarheid, waardoor men teruggrijpt naar het vertrouwde.

    We hebben de neiging de kans op en de impact van zeldzame, catastrofale gebeurtenissen te overschatten, een cognitieve bias die bekendstaat als "dread risk" [53]. Zelfs als statistieken aantonen dat AI-systemen gemiddeld beter presteren, kan de mogelijkheid van een onbekend type storing de adoptie afschrikken [54]. Ziekenhuizen aarzelen bijvoorbeeld om diagnostische AI’s in te zetten die aantoonbaar beter presteren dan junior-radiologen, omdat het schrikbeeld van één fatale, door AI veroorzaakte misser zwaarder weegt dan de alledaagse realiteit van menselijke beoordelingsfouten. Deze verliesaversie wordt versterkt door de angst van managers om verantwoordelijk te worden gehouden voor AI-fouten, waardoor het vertrouwde (zelfs als het objectief risicovoller is) veiliger aanvoelt [48].

     

Navigeren door het AI-Landschap

Deze psychologische drempels zijn niet onoverkomelijk. Sterker nog, juist hierin schuilt een significante, vaak onderschatte economische en professionele kans voor wie de kloof tussen mens en AI begrijpt en weet te overbruggen. Juist deze frictie, veroorzaakt door menselijke aarzeling, creëert een nieuwe categorie professionals: de ‘AI-tussenpersoon’. Dit zijn geen rollen die gedoemd zijn te verdwijnen, maar juist posities bedrijven die inspelen op de blijvende behoefte aan menselijk toezicht, interpretatie en strategische begeleiding bij de implementatie van AI. Zij worden het vertrouwde 'gezicht'. 

Vijf Hefbomen voor Vertrouwen en Versnelde Adoptie:

Om deze adoptiekloof te dichten, moeten professionals strategieën hanteren die aansluiten bij de menselijke psychologie:

  • Transparantie & Uitlegbaarheid: Demystificeer de ‘black box’. Zorg voor AI-systemen die hun besluitvorming inzichtelijk kunnen maken in heldere, begrijpelijke taal. Dit stelt gebruikers gerust en vergroot het vertrouwen [18, 5].
  • Educatie & Ervaring: Overbrug de kenniskloof. Hoe beter mensen begrijpen wat AI wel (en niet) is, des te minder intimiderend het wordt. Maak laagdrempelige kennismaking en praktische ervaring mogelijk om scepsis om te zetten in nieuwsgierigheid en vertrouwen [6].
  • Mensgericht Ontwerp: Positioneer AI als een krachtige aanvulling op menselijke expertise, niet als een vervanger. Ontwerp systemen met menselijk toezicht en controlemogelijkheden om het gevoel van autonomie en regie te waarborgen [20].
  • Risicobeperking & Ethisch Bestuur: Adresseer zorgen proactief. Implementeer robuuste databeveiliging, privacyprotocollen en maatregelen tegen bias. Houd je aan ethische richtlijnen en sta open voor onafhankelijke audits; wanneer men ziet dat AI verantwoord wordt toegepast, daalt het waargenomen risico [19].
  • Gekalibreerd Vertrouwen: Stuur aan op een optimaal, gebalanceerd vertrouwen. Voorkom zowel blind oververtrouwen als onterechte afkeer. AI-systemen moeten eerlijk zijn over hun beperkingen en onzekerheden, en tegelijkertijd aangeven wanneer ze wél zeker zijn van hun zaak. Dit bevordert een veerkrachtig en realistisch partnerschap [13].

 

Conclusie: Brandstof voor Innovatie

Onze eigen psychologie, met alle verwachtingen, angsten en vooroordelen, vormt vaak de hoogste drempel voor de adoptie van AI. Het bewijs is duidelijk: vertrouwen is de sleutel tot elke barrière. Als mensen een AI-systeem vertrouwen, zijn ze bereid het te gebruiken. Zo niet, dan stagneert de vooruitgang. Dit is echter geen reden tot wanhoop, maar een uitnodiging om door te pakken. Juist de menselijke vooroordelen die een brede adoptie vertragen, creëren tegelijkertijd een cruciale marktniche voor de service die bedrijven en professionals aanbieden. Voor professionals in de ruimtelijke ontwikkeling, architectuur en het ontwerp ligt hier een waardevolle kans. U kunt de kloof tussen mens en AI overbruggen, scepsis ombuigen naar vertrouwen en zo het immense potentieel van AI toepassen én de efficientie binnen bedrijfsvoering tillen naar ongekende hoogte.


Sources:

  • [1] McKinsey & Company. (2023). The state of AI: How organizations are rewiring to capture value. (McKinsey Report)
  • [2] Pew Research Center. (2023). Americans’ Views of Artificial Intelligence in 2023. (Pew Research Center)
  • [3] Omar Al-Hajj & Hannawi, O. (2022). Keeping Things as They Are: How Status-Quo Biases …. Sustainability, 14, 8188. (Sustainability Article)
  • [4] Pitardi, V. et al. (2021). How anthropomorphism affects trust in intelligent personal assistants. (IMDS Article)
  • [5] Bansal, G. et al. (2024). Humans’ Use of AI Assistance: The Effect of Loss Aversion on Willingness to Delegate Decisions. Management Science. (Management Science Paper)
  • [6] KPMG. (2023). Trust in Artificial Intelligence: A Global Study. (KPMG Report)
  • [7] Elish, M. C. (2019). Moral Crumple Zones: Cautionary Tales in Human-Robot Interaction. (Engaging Science, Technology, and Society)
  • [8] Arnestad, M. N. et al. (2024). The existence of manual mode increases human blame for AI mistakes. Cognition, 252, 105931. (Cognition Paper)
  • [9] Dartmouth Engineering. (2022). In AI We Trust?. (Dartmouth Engineering)
  • [10] Leo, X. & Huh, Y. E. (2020). Who gets the blame for service failures …. Computers in Human Behavior, 113, 106520. (Computers in Human Behavior)
  • [11] Newristics Heuristics Encyclopedia. (n.d.). Dread Risk Bias. (Newristics Heuristics)
  • [12] Chu, B. (2020). What is “dread risk” – and will it be a legacy of coronavirus?. The Independent. (The Independent)
  • [13] De Freitas, J. (2025). Why People Resist Embracing AI. Harvard Business Review, Jan-Feb 2025. (Harvard Business Review)
  • [14] MarketsandMarkets. (2025). Human-in-the-Loop Market Report. (MarketsandMarkets Report)
  • [15] Precedence Research. (2025). Prompt Engineering Market Size, 2025-2034. (Precedence Research Report)
  • [16] Rosenbacke, R. et al. (2024). How Explainable AI Can Increase or Decrease Clinicians’ Trust …. JMIR AI, 3, e53207. (JMIR AI)
  • [17] KPMG. (2024). Trust, Attitudes and Use of AI. (KPMG Trust Report)
  • [18] Berkman Klein Center. (2022). How do people react to AI failure?. (Berkman Klein Center)
  • [19] IAPP. (2025). European Commission withdraws AI Liability Directive from consideration. (IAPP Article)
  • [20] Kubica, M. L. (2022). Autonomous Vehicles and Liability Law. AJCL, 70(Suppl 1), i39-i69. (AJCL Article)
  • [21] LinkedIn. (n.d.). The Importance of Human-in-the-Loop AI in Sales Forecasting & Revenue Operations. (LinkedIn Article)
  • [22] HRFuture.net. (n.d.). The Future of Work: How Human-in-the-Loop AI is Shaping the Workforce. (HRFuture.net Article)
  • [23] Journal of Clinical Medicine. (2023). Artificial Intelligence and Human Trust in Healthcare: Focus on Clinicians. (Journal of Clinical Medicine)
  • [24] Journal of Financial Planning. (2017). Robo-Advisors: A Substitute for Human Financial Advice?. (Journal of Financial Planning)

 

« Terug naar Nieuwslijst