Expertise

AI-integraties
die werken.

AI die past in je workflow, niet andersom. Praktische LLM's en RAG-systemen ingebouwd waar je mensen al werken. Gelogd, beheersbaar en zonder data-export naar wie-dan-ook.

AI als onderdeel van de software, niet ernaast.

De beste AI-toepassing is er eentje die je niet als AI ervaart. Het is een knop in je bestaande admin-panel die een lange klantmail in drie zinnen samenvat. Een achtergrondjob die een inkomende factuur leest en de PO automatisch matcht. Een zoekbalk die antwoorden teruggeeft op natuurlijke vragen over interne documentatie. Geen apart product, geen nieuw abonnement, gewoon een extra mogelijkheid op een plek waar je team al komt.

Wij bouwen die integraties. Voor de taalmodellen zelf gebruiken we Claude van Anthropic, GPT van OpenAI, of, als de data het vereist, een lokaal gedraaid model op je eigen infrastructuur. Voor kennisintensieve use-cases voegen we een RAG-laag toe die antwoorden onderbouwt met citaten uit je eigen documenten, in plaats van het model vrij te laten associëren.

Wat we expliciet níet bouwen: chatbots om het chatbot-zijn, generatieve marketingplaatjes, en AI-demo's die in de pitch schitteren maar in productie struikelen. We zijn kritisch over waar AI toegevoegde waarde levert en waar een eenvoudige regel of zoekopdracht beter werkt. Die eerlijkheid kost soms een opdracht, dat nemen we voor lief.

// wat_we_bouwen

Wat wij bieden

Concrete AI-toepassingen, niet vaporware.

AI-copilots in je admin-panel

Knoppen die e-mails samenvatten, tickets prioriteren, rapportages genereren of teksten herschrijven, ingebouwd in het scherm waar je team toch al werkt. Streaming responses zodat het snel voelt.

RAG over je eigen data

Semantic search over contracten, dossiers, kennisbanken of chatlogs. Het model antwoordt op basis van je bronnen, met citaten, zodat de gebruiker kan doorklikken naar het origineel.

Document-extractie

Facturen, contracten, offertes: gestructureerde data eruit met validatie tegen een schema. Twijfelgevallen naar handmatige review.

OCR en transcriptie

Scans leesbaar maken, audio en video omzetten naar doorzoekbare tekst, inclusief speaker-diarization waar relevant.

Intake en triage

Binnenkomende tickets of mails categoriseren, urgentie inschatten en routeren naar de juiste persoon. Mens blijft bevestigen bij twijfel.

Verantwoordelijke implementatie

AVG-compliant dataverwerking, audittrail per LLM-call, prompt-injection preventie, hard caps op kosten en graceful fallback-gedrag als het model niet reageert. Het verschil tussen een demo en een productie-systeem.

// aanpak

Zo werken we

01

Discovery

We brengen in kaart waar je team tijd verliest aan repetitief tekstwerk en waar waardevolle data in onleesbare silos zit. Niet elke pijn is een AI-pijn.

02

Prototyping

Eén use case, twee weken, direct aan de echte data (of een gesanitiseerde kopie). We meten kwaliteit, snelheid en kosten voordat we opschalen.

03

Productie-klaar maken

Streaming, rate limiting, audit-logs, fallback-paden, cost caps. De boilerplate die het verschil maakt tussen een demo en iets wat drie jaar lang blijft draaien.

04

Monitoring en iteratie

Prompt-versies in git, kwaliteits-evaluaties bij modelupdates, kostenmonitoring. Als OpenAI of Anthropic morgen een betere of goedkopere versie uitbrengt, swappen we schoon.

// stack

Waarmee we werken

Model-onafhankelijk gebouwd, zodat je niet vastzit aan één leverancier.

LLM's

  • Anthropic Claude (Opus, Sonnet, Haiku)
  • OpenAI GPT (4.x en nieuwer)
  • Mistral en Llama voor lokaal
  • Streaming responses
  • Structured output via tool-use

RAG en embeddings

  • pgvector (Postgres) voor bestaande apps
  • Pinecone of Qdrant voor grote volumes
  • text-embedding-3 en voyage-3
  • Chunking + reranking pipelines

Rondom het model

  • Laravel queued jobs voor async calls
  • Redis rate limiting per tenant
  • Structured logging van elke LLM-call
  • Prompt-versies in git + CI evaluation
  • Sentry voor model-errors
// scenarios

Hoe dit er in de praktijk uitziet

E-mail triage voor een klantenserviceteam

Een servicedesk verwerkte dagelijks honderden binnenkomende mails die handmatig werden gecategoriseerd en toegewezen. Wij bouwden een laag vóór de inbox: elke mail wordt door Claude geclassificeerd (onderwerp, urgentie, klantcontext), gerouteerd naar de juiste persoon en voorzien van een conceptantwoord dat de medewerker kan aanpassen of direct versturen. Triage-tijd ging van gemiddeld vier minuten per mail naar één minuut, en de medewerkers houden controle over elke verzonden reactie.

Contract-extractie voor een juridische afdeling

Een juridisch team kreeg wekelijks honderden contracten binnen waarvan looptijd, bedragen, opzegtermijnen en wederpartijen in een register moesten. Handmatig werk, foutgevoelig. Wij bouwden een pipeline die contracten (PDF of Word) via OCR leest, velden extraheert volgens een strikt schema, en twijfelgevallen doorstuurt naar een reviewer. Gemiddelde doorlooptijd per contract ging van twintig minuten naar vier, waarvan drie de menselijke check.

Interne kennisbank die vragen beantwoordt

Een organisatie met veel beleidsdocumenten en procedures in Confluence, SharePoint en Google Drive had één veelgehoorde klacht: niemand kan vinden wat hij zoekt. Wij bouwden een RAG-systeem dat elke nacht nieuwe documenten indexeert en medewerkers via een zoekbalk natuurlijke vragen laat stellen. Het antwoord komt terug met letterlijke citaten en links naar de bron. Geen magische orakel, een doorzoekbare kennisbank die ook synoniemen snapt.

Veelgestelde vragen

Welke modellen gebruiken jullie en waarom?
Voor het merendeel van bedrijfstoepassingen zijn Claude (Anthropic) en GPT (OpenAI) de defaults, ze leveren de beste redeneerkwaliteit voor zakelijk taalgebruik en hebben volwassen API's. Voor specifieke taken (OCR, embeddings, kleinere classificaties) wegen we per geval af of een open-source model via bijvoorbeeld Mistral of Llama genoeg doet tegen lagere kosten. De keuze staat niet vast, we bouwen de integratie modelonafhankelijk, zodat je later kunt wisselen als prijs of kwaliteit kantelt.
Gaat onze data naar OpenAI of Anthropic?
Via hun enterprise-API's wordt je data niet gebruikt voor modeltraining en wordt deze binnen een termijn van dagen verwijderd, dat staat in de verwerkersovereenkomsten die we standaard afsluiten. Voor gevoelige data (medisch, juridisch, salaris) raden we redactie vóór verzending aan of een lokaal model. Welke route past, leggen we in Discovery vast, AVG-compliance is geen afterthought.
Wat kost dit per maand?
LLM-kosten zijn tegenwoordig opvallend laag voor zakelijke volumes. Wat vaker meetelt, is monitoring en hosting van de integratie zelf. We geven voor elke use case een ruwe schatting aan de start en zetten hard caps in om onverwachte kostenpieken af te vangen.
Wat als het model iets verzint (hallucineert)?
Daarom gebruiken we LLM's zelden alleenstaand. Voor vragen waar correctheid telt, draait er een RAG-laag die eerst de bronnen ophaalt en het model vervolgens dwingt om alléén op die bronnen te antwoorden, met citaten. Voor extractie-taken (contracten, facturen) valideren we de output tegen een schema, en twijfelgevallen gaan naar een menselijke reviewer. Bij klantcommunicatie werken we met draft-mode: AI schrijft voor, een mens verstuurt.
Kunnen jullie lokale LLM's draaien voor gevoelige data?
Ja. Voor klanten met harde dataresidentie-eisen draaien we modellen zoals Llama, Mistral of specifieke gefinetunede varianten op eigen infrastructuur, AWS EU-regio, Hetzner, of on-prem. De modellen zijn in 2025 kwalitatief volwassen genoeg voor veel bedrijfstoepassingen. Nadeel: hogere infra-kosten en meer operationele verantwoordelijkheid, dus we kiezen alleen voor deze route als de data het echt vereist.
Hoe beschermen jullie tegen prompt injection?
Door gebruikersinput strikt te scheiden van instructies, tools met duidelijk afgebakende permissies te geven (een AI die een e-mail mag lezen hoeft geen database te kunnen wijzigen), en kritieke acties altijd achter een bevestiging te zetten. Daarnaast wordt elke LLM-call gelogd in een audittrail, als er toch iets misgaat, weten we precies wat het model kreeg en wat het terugkoppelde.
+ + + +

// volgende_stap.execute()

AI-vraagstuk op tafel?

Vertel welke repetitieve taak tijd kost, wij zeggen eerlijk of AI helpt, en zo ja: waar we zouden beginnen.