Brighthives blog

Van ChatGPT naar niche-AI in de publieke sector: de volgende grote trend

De toepassing van kunstmatige intelligentie in de Nederlandse publieke sector groeit hard. Volgens TNO is het gebruik van AI sinds 2021 met ruim anderhalf keer toegenomen, waarbij gemeenten vooroplopen: inmiddels is bijna 40% van alle geïdentificeerde AI-toepassingen in gebruik bij gemeenten. Ook onderwijsinstellingen en zorgorganisaties ontdekken de mogelijkheden.

Wat opvalt, is dat de aandacht steeds meer verschuift van generieke AI-modellen (zoals ChatGPT of Claude) naar domeinspecifieke toepassingen. Generieke modellen zijn indrukwekkend krachtig, maar in de praktijk blijken ze onvoldoende betrouwbaar voor processen waar nuance, transparantie en wettelijke compliance cruciaal zijn. Juist daar, in de kernprocessen van de publieke sector, liggen de grootste risico’s én de hoogste kwaliteitseisen.

Wij verwachten daarom dat de komende jaren niche AI-toepassingen sterk in opkomst zullen zijn. Oplossingen die gebouwd zijn op dezelfde onderliggende technologie (grote taalmodellen), maar die zijn gefinetuned, gekaderd en begrensd op basis van (lokale) wetgeving, beleid, werkprocessen en specifieke gevoeligheden.

2. Een casus: AI in het inburgeringsproces

We beschrijven een korte fictieve casus van een niche toepassing in het sociaal domein, om het belang van dit soort domein specifieke AI mee te illustreren.

Stel je een statushouder voor die in een bepaalde gemeente wordt geplaatst. Nog voordat de intake plaatsvindt, kan deze persoon via een AI-toepassing in gesprek gaan met een digitale assistent. De assistent spreekt zowel Nederlands als Tigrinya (en andere talen) en kan dus direct als tolk functioneren. Hij helpt de statushouder zich voor te bereiden op het gesprek, legt uit wat er gaat gebeuren en stelt alvast basisvragen die later terugkomen in de intake.

Daarna helpt deze toepassing de inburgeringscoach bij de betreffende gemeente om zich voor te bereiden op de fysieke intake. Zowel inhoudelijk (wat heeft deze nieuwe inwoner over zichzelf verteld? Wat is goed om nog op door te vragen?) als ook voor het proces en de interactie met deze persoon (welke aandachtspunten zijn er vanuit culturele sensitiviteit belangrijk om rekening mee te houden in het gesprek?)

Tijdens de fysieke intake ondersteunt dezelfde AI de inburgeringscoach. Hij transcribeert het hele gesprek en vat het samen. Hij vult automatisch de verplichte formats in voor het Persoonlijk Inburgeringsplan, conform de Inburgeringswet én het aanvullende gemeentelijke beleid. En hij kan ook hier weer cultuur sensitieve inzichten en adviezen geven.

2. Grenzen en uitdagingen van generieke AI

ChatGPT en soortgelijke modellen zijn ontworpen om alles te kunnen. Dat is hun kracht, maar ook hun zwakte. Ze beantwoorden elke vraag die je stelt, ook als ze het antwoord niet écht weten. Dat leidt tot ‘hallucinaties’: antwoorden die deels onjuist of volledig verzonnen zijn. In een creatieve setting is dat hooguit hinderlijk. Maar in een juridische, sociale of administratieve context kan het desastreuze gevolgen hebben.

Generieke AI’s missen domeinkennis, of prioriteren deze onvoldoende. Om bij onze casus te blijven: ze weten bijvoorbeeld niet precies hoe de Inburgeringswet in elkaar zit, hoe de inburgering binnen een specifieke gemeente is georganiseerd, of welk format voor een Persoonlijk Inburgeringsplan (PIP) er gebruikt wordt.

Ook weten ze niet vanzelf welke antwoorden ze wel en niet mogen geven, hoe diplomatiek ze daarin moeten zijn en op welke bronnen ze zich mogen baseren. Dit soort modellen zijn dus enorm krachtig, maar schieten door hun onbegrensdheid dus tekort in processen die met veel gevoeligheid en kaders gepaard gaan.

3. Voordelen van niche AI

Betrouwbaarheid en feitelijke juistheid

Domeinspecifieke AI-toepassingen zijn niet onbeperkt en onvoorspelbaar, maar gericht getraind en begrensd. Een paar voorbeelden ter illustratie:

Een statushouder zou aan een onze chatbot kunnen vragen: “waar kan ik mijn horloge het beste verkopen in Utrecht?” Als gemeente wil je dat de AI daar niet in meegaat, maar een antwoord formuleert als: “de gemeente kan daar geen informatie over geven. Wel kunnen we hulp bieden bij vragen over geld, werk, of schulden. Wil je dat we je helpen om je financiële zaken op orde te krijgen?”

Een nieuwe inwoner is misschien benieuwd: “is de zorg in Utrecht eigenlijk beter dan in Amsterdam?” Dat is natuurlijk een lastige: weten we dat wel? Op welke bronnen baseert de AI zich? Op cijfers van het CBS? Of ook op Google reviews over de gemeentes Utrecht en Amsterdam? En willen we wel dat de AI antwoord geeft op zo’n vraag?

Tot slot maakt iemand zich misschien zorgen: “ik heb gehoord dat jullie kinderen uit huis plaatsen als mensen iets fout doen, is dat waar?” De toon en lading van het antwoord op deze vraag maakt nogal uit met hoeveel vertrouwen en openheid iemand nog tegenover zijn of haar (menselijke) inburgeringscoach zit, die een langdurige werkrelatie met hem of haar aan moet gaan. Feitelijk zou een AI kunnen reageren met: “Ja, in deze gemeente zijn in 265 gevallen van gedwongen uithuisplaatsing gedocumenteerd in 2025.” Dat klopt misschien wel, maar de AI houdt dan geen rekening met de gevoeligheid van de vraag en de gevolgen van het antwoord voor de verdere hulpverlening aan deze persoon.

Liever zien we dan iets als: “Alleen als de veiligheid van een kind ernstig in gevaar is, dan heeft de gemeente de mogelijkheid om in te grijpen. Dat gebeurt nooit zomaar en ook nooit voordat er eerst andere hulp is aangeboden om de veiligheid van het kind te verbeteren. U hoeft zich hier dus geen zorgen over te maken. Als u vragen heeft over de opvoeding, de school, of de gezondheid van uw kinderen, dan kunt u bij ons terecht voor hulp. We kunnen ons namelijk goed voorstellen dat het opvoeden van kinderen in een nieuw land met andere regels en een andere cultuur best lastig voor u kan zijn. U kunt al uw vragen aan mij stellen, dan kan ik u vertellen welke hulp wij kunnen bieden”.

Compliance en transparantie

De verschuiving richting niche AI wordt niet alleen gedreven door kwaliteit en efficiency, maar ook door wet- en regelgeving. De EU AI Act classificeert veel processen in het publieke domein als hoog-risico. Dat betekent dat organisaties moeten voldoen aan strenge eisen op het gebied van transparantie, uitlegbaarheid en auditbaarheid.

Generieke AI-modellen die in specifieke processen worden toegepast, zijn daar zelden op voorbereid. Niche AI maakt compliance juist eenvoudiger:

  • Doordat systemen begrensd zijn, zijn ze beter auditbaar.
  • Doordat ze getraind zijn op lokale regelgeving, is uitlegbaarheid eenvoudiger.
  • Doordat ze irrelevante vragen negeren, blijven ze binnen het mandaat van de organisatie.
  • Doordat alle data binnen de organisatie blijft en volledig gekaderd is, werkt dit soort AI niet alleen veiliger, maar kan het ook sneller op draagvlak rekenen bij medewerkers en burgers.

Technisch gezien spelen hier innovaties als Retrieval Augmented Generation (RAG) en fine-tuning een sleutelrol. Door grote taalmodellen te koppelen aan lokale databronnen en wetgeving, wordt hallucinatie sterk verminderd. Hierdoor kan een gemeente bijvoorbeeld een AI inzetten voor burgerzaken, vergunningtrajecten of schuldhulpverlening en toch voldoen aan alle compliance-eisen.

De rode draad is helder: niche AI is niet alleen een wenselijke ontwikkeling, maar een noodzakelijke randvoorwaarde om te voldoen aan de AI Act én aan de maatschappelijke opdracht van publieke organisaties.

5. Conclusie

AI verandert in rap tempo de manier waarop publieke organisaties werken. Generieke modellen zoals ChatGPT zijn krachtige hulpmiddelen, maar missen de nuance, betrouwbaarheid en kaders die in onderwijs, zorg en sociaal domein essentieel zijn.

De toekomst ligt bij niche AI-toepassingen: digitale assistenten die specifiek zijn ontworpen voor één taak, één domein, één organisatie. Ze zijn getraind op de juiste wetgeving, gevoed met de juiste beleidskaders, en ingebed in de werkprocessen van de organisatie. Daarmee zijn ze niet alleen efficiënter, maar ook betrouwbaarder en maatschappelijk veiliger.

De casus van het inburgeringsproces laat zien hoe dit eruitziet in de praktijk: een AI die tolkt, notuleert, samenvat, formats invult én cultuursensitief adviseert. Niet generiek, maar precies toegesneden op de wet en het beleid. Dat is geen sciencefiction, maar een trend die nu al zichtbaar is en de komende jaren alleen maar sterker wordt.

Voor gemeenten, onderwijsinstellingen en zorgorganisaties geldt dus: wacht niet af, maar verken nu al de mogelijkheden van niche AI. Bij Brighthives ondersteunen we verschillende klanten bij het ontwerpen en ontwikkelen van dit soort applicaties. We doen dat vanuit onze hands on ervaring met de doelgroepen en de primaire processen binnen het onderwijs, de zorg en het sociaal domein, aangevuld met een flinke dosis kennis over AI governance en compliance. Wil je sparren over de mogelijkheden die AI jouw organisatie te bieden heeft? Of heb je een idee voor een toepassing die je verder wil uitwerken? Neem dan contact met ons op.

Gerelateerde blogs

AI governance: sneller, slimmer en veiliger profiteren van de kracht van AI

AI is niet meer weg te denken uit onze samenleving. In het onderwijs, de zorg en het sociaal domein worden algoritmes en slimme toepassingen steeds vaker ingezet om processen te…

De AI act: een reality check voor onderwijs, zorg en gemeentes

De Europese AI-verordening (EU AI Act) markeert een historisch moment: het is de eerste allesomvattende wetgeving ter wereld die kunstmatige intelligentie reguleert. Deze wet bepaalt hoe AI mag worden ontwikkeld,…