Advertentie

MIC: Fondsenwerving met het bereik van social media en het gemak van een betaalverzoekje

Van matige chatbot naar goede hulp: de stap naar conversational AI 2.0

12 augustus 2025

Steeds meer bedrijven en organisaties zetten chatbots in om vragen snel en efficiënt af te handelen. Het doel is duidelijk: klanten, donateurs, vrijwilligers en partners direct helpen en de druk op de medewerkers verlagen. De huidige resultaten zijn wisselend. Veel chatbots leveren niet de ervaring die mensen verwachten. De publieke opinie is dan ook vaak kritisch. Jan Verstegen gaat in op de mogelijkheden voor goede doelen.

Chatbots worden steeds vaker ingezet door bedrijven en non-profitorganisaties
Chatbots worden steeds vaker ingezet door bedrijven en non-profitorganisaties © Shutterstock // oatawa

door Jan Verstegen

Uit onderzoek en in de praktijk blijkt dat mensen snelheid en gemak waarderen. Ze willen niet alleen informatie, maar ook direct geholpen worden. Dat mag gerust digitaal, zolang het serviceniveau gelijk is aan wat jouw medewerkers leveren. En dat hiermee niet de weg naar jouw medewerkers wordt geblokkeerd. Het moet een keuze zijn.

Op het niveau dat de chatbot echt waardevolle service biedt, zijn nog maar weinig chatbots actief. Daarom waarderen mensen in veel gevallen het contact met een medewerker nog steeds zo hoog. Maar met de komst van Large Language Models en generatieve AI kun jij enorme stappen zetten in klantbeleving en de sprong maken naar conversational AI 2.0. Maar hoe doe je dit?

Bouw voort op de beste ervaringen

In Nederland maken banken, energiemaatschappijen, retailers en verzekeraars al met succes gebruik van conversational AI. En ook binnen de non-profitsector en fondsenwerving ontstaan de eerste successen. Stel je een chatbot voor die niet alleen donateurs bedankt, maar hen ook direct kan informeren over de impact van hun donatie of hen helpt bij het aanpassen van hun periodieke gift. Een goede digitale dialoog (via voice en chatbots), bespaart veel waardevolle uren terwijl de mensen topservice ervaren. Wat doen deze koplopers anders?

  • Ze investeren continu tijd en energie in hun chatbot;
  • Ze maken het mensen mogelijk om niet alleen vragen te stellen, maar direct zaken te regelen via de chatbot;
  • Ze zoeken voortdurend naar manieren om hun chatbot te verbeteren en aan te laten sluiten op de voorkeurskanalen van hun klant (bijvoorbeeld WhatsApp of e-mail);
  • Ze zetten een chatbot in als onderdeel van hun totale visie op klantcontact en laten deze samenwerken met de mensen en systemen in de organisatie.

Deze AI-adepten bouwen nu verder bedrijven bouwen nu verder met generatieve AI om de klant- en donateursbeleving en de waarde van elke interactie nog verder te verhogen.

De echte waarde zit in het proces

Met een Large Language Model (LLM), een vorm van generatieve AI die is getraind op bedrijfsinformatie, kan bijvoorbeeld een donateur of een vrijwilliger snel en prettig antwoord krijgen op zijn of haar vraag. Maar je hebt meer nodig. Achter elke vraag schuilt vaak een actie: een adreswijziging doorgeven, een donatie aanpassen of inschrijven voor een vrijwilligersactiviteit. Jouw chatbot moet dus niet alleen goed kunnen praten, maar vooral helpen om direct dingen te regelen.

Door de chatbot te koppelen aan data en interne processen, ontstaat een nieuwe dimensie in klanteninteractie. Mensen kunnen dan zelfstandig eenvoudig hetgene regelen dat nodig is.

Dit zijn vaak taken waar bedrijven jaarlijks veel tijd aan kwijt zijn. Een kritische vraag: klanten kunnen dit soort zaken toch gewoon regelen in de ‘mijn’-omgeving of in onze app? De realiteit is dat veel klanten deze bestaande digitale kanalen nauwelijks gebruiken. Succesvolle organisaties zetten daarom nu reeds hun chatbot in als extra kanaal, zodat meer klanten kiezen voor digitale selfservice. Dit zorgt voor minder telefoontjes, lagere kosten en hogere klanttevredenheid. De inzet van een LLM kan dit nog beter maken.

'Een goede digitale dialoog bespaart veel waardevolle uren, terwijl de mensen topservice ervaren'

Waarom generatieve AI het verschil maakt

Het draait om beleving. Een slecht gesprek met jouw digitale collega, straalt direct negatief af op je organisatie. Met de komst van generatieve AI is het speelveld veranderd. Consumenten en medewerkers chatten steeds vaker met LLM’s zoals ChatGPT of Perplexity. Deze modellen voeren natuurlijke, vloeiende gesprekken en begrijpen klantintenties veel beter dan traditionele chatbots. Als jouw chatbot daar nog niet aan kan tippen, is de kans groot dat iemand afhaakt of alsnog naar de organisatie belt.

Bedrijven en organisaties onderzoeken daarom nu volop hoe ze de kracht van LLM’s kunnen inzetten voor hun digitale collega’s. Want hoe beter jouw chatbot de mens begrijpt, hoe sneller en adequater deze wordt geholpen.

Van chatbot naar procesassistent: conversational AI 2.0

De eerste generatie chatbots beantwoordde vooral veelgestelde vragen. Maar jouw klant wil zaken regelen: voor een overleden ouder de incasso stoppen, een kennismakingsgesprek met de lokale groep maken of het donatiebedrag wijzigen. Conversational AI 2.0 betekent dat jouw chatbot verandert in een intelligente proces-assistent, door drie elementen te combineren:

  • LLM’s voor natuurlijke interactie en intentieherkenning;
  • Orkestratie van het klantcontact en een diepe integratie met backend-systemen (zoals CRM/ERP voor data en koppelingen met workflows) om zaken te kunnen regelen;
  • Een actuele en gevalideerde kennisbank, zodat de chatbot altijd de juiste informatie gebruikt in de klantdialoog.

De optimale combinatie: LLM + procesbots

De echte kracht zit in de combinatie van een LLM met procesbots. De LLM zorgt voor een natuurlijk gesprek, de procesbot zorgt voor de afhandeling van het hele proces, voor controle en voorspelbaarheid in de uitvoering.

Door LLM kan jouw chatbot:

  • Snel en foutloos complexe processen uitvoeren;
  • Natuurlijke interacties combineren met praktische oplossingen;
  • De klantinteractie soepeler en efficiënter laten verlopen.

Zo verbeter je niet alleen de klantbeleving, maar maximaliseer je de waarde van elke interactie.

AI-agents versus de hybride aanpak

De nieuwste ontwikkeling in de AI-markt gaat over AI-agents; daar wordt door de tech-platforms vol op ingezet. Een AI-agent is een volledig autonome AI-assistent die zelfstandig gesprekken aangaat met klanten en zelf kan beslissen wat de beste vervolgacties zouden moeten zijn. Volledig autonome AI-agents zijn krachtig, maar brengen nu nog risico’s mee op het gebied van controle, compliance en voorspelbaarheid. Dit moet zich allemaal nog uitkristalliseren. Zeker in direct klantcontact zijn deze risico’s vaak niet acceptabel.

De hybride aanpak, LLM’s gecombineerd met procesbots, biedt hiervoor een bewezen uitkomst. Zo houd je controle, terwijl jij en je klanten profiteren van de inzet van geavanceerde AI. Tegelijkertijd levert dit de tijd en ruimte om te experimenteren, en te bezien of AI-agents op termijn alsnog een beter alternatief vormen.

‘Als eigenaar van de chatbot ervaar je toenemende verantwoordelijkheid’

De uitdaging van de chatboteigenaar

Hoe dan ook, de upgrade naar een slimme, geïntegreerde chatbot brengt uitdagingen mee. Als eigenaar van de chatbot ervaar je toenemende verantwoordelijkheid. Je digitale collega krijgt vragen over je producten, diensten en interne processen, voordat de klant zijn echte (procesgerichte) vraag stelt. Fouten hierin stralen direct af op jouw digitale collega en je bedrijf.

Daarnaast stelt de koppeling met klantdata en backend-processen hoge security- en betrouwbaarheidseisen. De bescherming van persoonsgegevens en integriteit van bedrijfsgegevens moet altijd gewaarborgd zijn.

Hoe houd je hier grip op? Een paar tips:

  • Ga het gesprek aan met jouw collega’s. Een succesvolle digitale collega ontstijgt de silo’s in je bedrijf. Werk samen.
  • Data en kennis moeten op orde zijn. Creëer een gemeenschappelijke aanpak die ervoor zorgt dat de juiste informatie altijd centraal, actueel en toegankelijk is, voor zowel je medewerkers als je digitale assistenten.
  • Zorg voor betere kwaliteit van antwoorden van jouw LLM. Integreer bijvoorbeeld slimme retrieval-methodes en controles;
  • Beperk autonome acties en kies voor een hybride aanpak.
  • Implementeer strikte beveiligingsmaatregelen en zorg voor een robuuste infrastructuur.
  • Monitor en optimaliseer de dialogen, data en kennis continu op basis van real-time feedback.

Lees hier meer over retrieval-methodes in dit artikel van DDMA

Jouw volgende stap

Het moment om in actie te komen is nú. Bedrijven en non-profit organisaties die hun chatbot integreren in bedrijfsprocessen, behalen nu al geweldige resultaten. Meer tevreden klanten en donateurs, hogere efficiency, lagere kosten. Kortom: een ijzersterke business case. De doorontwikkeling naar conversational AI 2.0 zal dit nog verder verbeteren.

Dit artikel kwam tot stand in samenwerking met DDMA, inhoudelijk partner van Vakblad fondsenwerving.

--

Dit artikel stond eerder in Vakblad fondsenwerving, jaargang 27, nummer 3, dat in augustus 2025 verscheen.

Meer over Vf 27-3

Jan Verstegen

Gastauteur

Jan Verstegen is Principal Consultant bij Dialog Group, een partij die alle vormen van klantinteractie digitaliseert. Hij matcht oplossingen aan uitdagingen die organisaties hebben op het gebied van klantinteractie. Jan is daarnaast actief lid van de Commissie AI van DDMA, waarbij afgevaardigden van grote klantorganisaties hun ervaringen delen op het gebied van de brede inzet van AI en digitalisatie.

Wekelijksenieuwsbrief

Vond je dit een goed verhaal? Wil je meer van dit soort artikelen automatisch in je mailbox? Schrijf je dan in voor onze wekelijkse nieuwsbrief 👇

Close