Demo

AI wacht niet tot organisaties er klaar voor zijn

Categorie:

Iedere organisatie voelt inmiddels dat ze iets met AI moet. Maar juist dan beginnen de echte vragen pas. Welke toepassingen zijn echt zinvol? Welke risico’s wil je niet accepteren? Wat mag er met data gebeuren? En hoeveel controle wil je als mens eigenlijk houden? In dat spanningsveld gaan Daniël Dodewaard, Martijn Smit en Sven Zweistra met elkaar in gesprek. Over één punt zijn ze het eens: de keuze voor een AI-taalmodel draait niet alleen om de vraag wat technologisch het beste is. Ook dataveiligheid, privacy en security wegen mee.

Toolkeuze is niet genoeg: de echte vraag gaat over data

In de praktijk worden vaak meerdere AI-tools naast elkaar gebruikt. In de ene schrijf je een prompt, in de andere werk je iets verder uit. Dat laat zien dat AI zich niet ontwikkelt via één vast systeem, maar via een mix van toepassingen met elk hun eigen kracht. Zoals Sven zegt: “Soms is er een AI-discussie alsof we dan één tool moeten kiezen. De ene tool is beter in het één en de ander beter in het andere.”

Sommige organisaties hebben daarin al keuzes gemaakt. Martijn geeft als voorbeeld BAM, waar hij nu via Xecutive werkt. Daar kunnen medewerkers standaard gebruikmaken van Microsoft Copilot om hun werk efficiënter te maken met AI. Bij overheden ligt dat vaak anders. Daniël, die voor een gemeente werkt, zegt dat het daar officieel nog niet mag, omdat het beleid rond AI-gebruik nog in ontwikkeling is. Juist daar ontstaat een risico: als duidelijke kaders en werkbare alternatieven ontbreken, gaan mensen toch zelf op zoek naar manieren om AI te gebruiken en ligt wildgroei op de loer.

Volgens Daniël zit de echte discussie daarom voorlopig niet in de vraag welk platform je kiest. “Dan is het niet de keuze: welk platform kies je? Hoe ga je om met welke data naar AI moet worden gestuurd?” Ook Sven trekt het gesprek naar die randvoorwaarden: “Welke data zet je erin, wat wordt de beveiliging en waar komt die data?”

Daarmee wordt duidelijk dat toolkeuze alleen niet genoeg is. De echte vraag is hoe organisaties omgaan met privacy, security en datagebruik. Daniël vat die zorg scherp samen: “Je kunt in AI alles stoppen, maar je moet ook nadenken wat ermee gebeurt.”

Zonder kaders gaan mensen zelf wel aan de slag

Juist daarom is de vraag wat er gebeurt als beleid uitblijft zo relevant. Martijn formuleert hem scherp: als organisaties elkaar vooral tegenhouden met discussies over data en risico’s, gaan medewerkers dan niet gewoon zelf aan de slag?

Daniël denkt van wel. “Het is aannemelijk dat dat gebeurt”, zegt hij. “Als er nog geen goed beleid is, dan is het onduidelijk en gaan mensen gewoon letterlijk kopieren, plakken en niet nadenken wat er daadwerkelijk met de data gebeurt.” Als beleid uitblijft, zoeken mensen zelf een weg en gaan ze met AI experimenteren.

Volgens Sven kun je dat eigenlijk niet meer tegenhouden. “Je moet meebewegen en opties bieden om mensen te laten werken met AI”, zegt hij. Doe je dat niet, dan worden mensen creatief. Hij vergelijkt het met het delen van (grote) bestanden vanuit een organisatie met externe partijen: Intern is hier soms behoefte voor, maar als er geen veilig middel gefaciliteerd wordt, gaan mensen vanzelf onveilige alternatieve middelen gebruiken. Denk aan USB-sticks, persoonlijke mail of onveilige informatieoverdracht via websites. De les is volgens hem simpel: je moet op de trein springen en werkbare oplossingen bieden.


De eerste met AI gebouwde applicatie binnen Xecutive

Binnen Xecutive wordt AI niet alleen besproken, maar ook toegepast. Zo is inmiddels de eerste met AI gebouwde applicatie binnen de organisatie een feit. Daniël bouwde een bestaande Excel-sheet met provisieberekeningen om tot een bruikbare interne applicatie.

Die applicatie laat zien wat een medewerker heeft omgezet, welke provisie daarbij hoort en hoe dat overzicht eruitziet per periode. Waar dat eerst handmatig uit Excel kwam, is er nu een duidelijk overzicht dat als print of pdf kan worden gebruikt. Dat scheelt administratie en geeft meer grip op de rapportages.

Over de aanpak zegt Daniël: “Ik ben begonnen met Gemini Studio. Daar rolde een basisapplicatie uit. Daarna Codex en ChatGPT.” Al pratend met AI bouwde hij de toepassing verder uit, steeds met oog voor wat er technisch gebeurde: de backend, veilige toegang en veilige opslag van data. De applicatie werd binnen Xecutive getest en op directieniveau aangescherpt. “Nu hebben we een applicatie die goed werkt en veilig is”, zegt hij.

Tegelijk laat dit volgens hem ook de grens van AI zien. “Je kunt niet al pratenderwijs een applicatie maken, je moet er wel verstand van hebben.” AI hielp hem om sneller te bouwen, maar hij bleef zelf controleren of de code klopte en veilig was ingericht. Zijn samenvatting: “Mens, AI, mens.”

De echte vraag: wie houdt de regie?

Terwijl de technologie versnelt, zijn organisaties nog bezig te bepalen hoe ze de regie houden. Daarmee verschuift het gesprek bijna vanzelf naar de klassieke angstbeelden: wat gebeurt er als AI steeds autonomer wordt, terwijl organisaties nog bezig zijn met hun eerste kaders?

Daniël blijft nadrukkelijk bij menselijke controle. “Mens, AI, mens”, zegt hij opnieuw. Voor hem moet het altijd weer terugkomen bij de mens voordat je het gebruikt. “Ik vind het heel belangrijk dat je als mens de controle houdt.” Zodra je dat loslaat, zegt hij, heb je eigenlijk geen idee meer waar het heen gaat.

Sven vat dat met een glimlach samen als een gesprek met “hoog Terminator-gehalte”, maar Martijn trekt het meteen terug naar de praktijk van nu. “Human in the loop, in die fase zitten we nog”, zegt hij.

Daarmee komt het gesprek uit bij de kern: AI dwingt organisaties om keuzes te maken over datagebruik, verantwoordelijkheid en risico’s.

Werk mee aan de organisaties van morgen

Wil jij via Xecutive werken op het snijvlak van innovatie, technologie en organisatie? Of juist op een ander terrein waar jouw expertise verschil maakt? Ga dan het gesprek met ons aan. Bij Xecutive zijn we altijd op zoek naar talent.