AI-integraties
die werken.
AI die past in je workflow, niet andersom. Praktische LLM's en RAG-systemen ingebouwd waar je mensen al werken. Gelogd, beheersbaar en zonder data-export naar wie-dan-ook.
AI als onderdeel van de software, niet ernaast.
De beste AI-toepassing is er eentje die je niet als AI ervaart. Het is een knop in je bestaande admin-panel die een lange klantmail in drie zinnen samenvat. Een achtergrondjob die een inkomende factuur leest en de PO automatisch matcht. Een zoekbalk die antwoorden teruggeeft op natuurlijke vragen over interne documentatie. Geen apart product, geen nieuw abonnement, gewoon een extra mogelijkheid op een plek waar je team al komt.
Wij bouwen die integraties. Voor de taalmodellen zelf gebruiken we Claude van Anthropic, GPT van OpenAI, of, als de data het vereist, een lokaal gedraaid model op je eigen infrastructuur. Voor kennisintensieve use-cases voegen we een RAG-laag toe die antwoorden onderbouwt met citaten uit je eigen documenten, in plaats van het model vrij te laten associëren.
Wat we expliciet níet bouwen: chatbots om het chatbot-zijn, generatieve marketingplaatjes, en AI-demo's die in de pitch schitteren maar in productie struikelen. We zijn kritisch over waar AI toegevoegde waarde levert en waar een eenvoudige regel of zoekopdracht beter werkt. Die eerlijkheid kost soms een opdracht, dat nemen we voor lief.
Wat wij bieden
Concrete AI-toepassingen, niet vaporware.
AI-copilots in je admin-panel
Knoppen die e-mails samenvatten, tickets prioriteren, rapportages genereren of teksten herschrijven, ingebouwd in het scherm waar je team toch al werkt. Streaming responses zodat het snel voelt.
RAG over je eigen data
Semantic search over contracten, dossiers, kennisbanken of chatlogs. Het model antwoordt op basis van je bronnen, met citaten, zodat de gebruiker kan doorklikken naar het origineel.
Document-extractie
Facturen, contracten, offertes: gestructureerde data eruit met validatie tegen een schema. Twijfelgevallen naar handmatige review.
OCR en transcriptie
Scans leesbaar maken, audio en video omzetten naar doorzoekbare tekst, inclusief speaker-diarization waar relevant.
Intake en triage
Binnenkomende tickets of mails categoriseren, urgentie inschatten en routeren naar de juiste persoon. Mens blijft bevestigen bij twijfel.
Verantwoordelijke implementatie
AVG-compliant dataverwerking, audittrail per LLM-call, prompt-injection preventie, hard caps op kosten en graceful fallback-gedrag als het model niet reageert. Het verschil tussen een demo en een productie-systeem.
Zo werken we
Discovery
We brengen in kaart waar je team tijd verliest aan repetitief tekstwerk en waar waardevolle data in onleesbare silos zit. Niet elke pijn is een AI-pijn.
Prototyping
Eén use case, twee weken, direct aan de echte data (of een gesanitiseerde kopie). We meten kwaliteit, snelheid en kosten voordat we opschalen.
Productie-klaar maken
Streaming, rate limiting, audit-logs, fallback-paden, cost caps. De boilerplate die het verschil maakt tussen een demo en iets wat drie jaar lang blijft draaien.
Monitoring en iteratie
Prompt-versies in git, kwaliteits-evaluaties bij modelupdates, kostenmonitoring. Als OpenAI of Anthropic morgen een betere of goedkopere versie uitbrengt, swappen we schoon.
Waarmee we werken
Model-onafhankelijk gebouwd, zodat je niet vastzit aan één leverancier.
LLM's
- Anthropic Claude (Opus, Sonnet, Haiku)
- OpenAI GPT (4.x en nieuwer)
- Mistral en Llama voor lokaal
- Streaming responses
- Structured output via tool-use
RAG en embeddings
- pgvector (Postgres) voor bestaande apps
- Pinecone of Qdrant voor grote volumes
- text-embedding-3 en voyage-3
- Chunking + reranking pipelines
Rondom het model
- Laravel queued jobs voor async calls
- Redis rate limiting per tenant
- Structured logging van elke LLM-call
- Prompt-versies in git + CI evaluation
- Sentry voor model-errors
Hoe dit er in de praktijk uitziet
E-mail triage voor een klantenserviceteam
Een servicedesk verwerkte dagelijks honderden binnenkomende mails die handmatig werden gecategoriseerd en toegewezen. Wij bouwden een laag vóór de inbox: elke mail wordt door Claude geclassificeerd (onderwerp, urgentie, klantcontext), gerouteerd naar de juiste persoon en voorzien van een conceptantwoord dat de medewerker kan aanpassen of direct versturen. Triage-tijd ging van gemiddeld vier minuten per mail naar één minuut, en de medewerkers houden controle over elke verzonden reactie.
Contract-extractie voor een juridische afdeling
Een juridisch team kreeg wekelijks honderden contracten binnen waarvan looptijd, bedragen, opzegtermijnen en wederpartijen in een register moesten. Handmatig werk, foutgevoelig. Wij bouwden een pipeline die contracten (PDF of Word) via OCR leest, velden extraheert volgens een strikt schema, en twijfelgevallen doorstuurt naar een reviewer. Gemiddelde doorlooptijd per contract ging van twintig minuten naar vier, waarvan drie de menselijke check.
Interne kennisbank die vragen beantwoordt
Een organisatie met veel beleidsdocumenten en procedures in Confluence, SharePoint en Google Drive had één veelgehoorde klacht: niemand kan vinden wat hij zoekt. Wij bouwden een RAG-systeem dat elke nacht nieuwe documenten indexeert en medewerkers via een zoekbalk natuurlijke vragen laat stellen. Het antwoord komt terug met letterlijke citaten en links naar de bron. Geen magische orakel, een doorzoekbare kennisbank die ook synoniemen snapt.
Veelgestelde vragen
Welke modellen gebruiken jullie en waarom?
Gaat onze data naar OpenAI of Anthropic?
Wat kost dit per maand?
Wat als het model iets verzint (hallucineert)?
Kunnen jullie lokale LLM's draaien voor gevoelige data?
Hoe beschermen jullie tegen prompt injection?
// volgende_stap.execute()
AI-vraagstuk op tafel?
Vertel welke repetitieve taak tijd kost, wij zeggen eerlijk of AI helpt, en zo ja: waar we zouden beginnen.
Ook interessant
// case_studies