"Vertrouwelijke gesprekken kun je beter in persoon voeren"
Generatieve AI is aan een snelle opmars bezig. Dat is handig voor ondernemers, maar ook voor cybercriminelen biedt het kansen. Met de komst van handige apps om teksten te generen, beelden te creëren en stemmen te klonen, moeten ondernemers waakzaam zijn. Manon den Dunnen, Strategisch Specialist Digitaal bij de politie, pleit voor een gedragsverandering. “Het moet normaal worden om even terug te bellen of een controlevraag te stellen. Of bespreek het in persoon.”
Een brochure maken voor je nieuwe product? Daar draait een gemiddelde ondernemer zijn hand niet meer voor om. Je vraagt een tool als ChatGPT om een tekst te schrijven, genereert via een website een aantal stockfoto’s van niet-bestaande personen en laat een app een mooie opmaak genereren. Generatieve kunstmatige intelligentie (ook wel generatieve AI) biedt ondernemers tal van handige mogelijkheden.
Manon den Dunnen is de eerste om dat toe te geven. Zelf heeft ze ook weleens ChatGPT gebruikt om wat teksten te genereren. Maar ze is zich heel bewust van welke informatie ze invoert. “Als je het niet op LinkedIn zou zetten, moet je het ook niet invoeren op ChatGPT. Want dat systeem traint zichzelf met de informatie die je invoert en voordat je het weet komt jouw informatie terug in teksten die gegenereerd zijn voor anderen. Daarom hebben bedrijven zoals Samsung hun medewerkers verboden het te gebruiken.”
Hypes doorprikken
Manon is Strategisch Specialist Digitaal bij de politie. In die rol volgt ze alle nieuwe technologische ontwikkelingen op de voet. “Ik zoek uit wat het betekent voor onze samenleving en daarmee voor het werk en de rol van de politie. Ik probeer bijvoorbeeld de hypes door te prikken en te zorgen dat wij als politie niet met alles meegaan. Maar tegelijkertijd willen we als politie wel snappen wat de nieuwe technologieën precies inhouden, omdat we ze tegenkomen in onze opsporingsonderzoeken.”
Al langere tijd verdiept Manon zich in de wereld van generatieve AI. “Specifiek synthetische media. Kortgezegd gaat dat over beeld, tekst en geluid gegeneerd of gemanipuleerd met kunstmatige intelligentie. Dus door computers.” Het ontwikkelt zich razendsnel, door het zelflerend vermogen van kunstmatige intelligentie. “Daar komt nog eens bij dat computers steeds krachtiger worden.”
ChatGPT is geen zoekmachine
Een bekende toepassing van generatieve AI is ChatGPT. “Dat is een ontzettende hype geworden,” aldus Manon. “Veel mensen zijn het gaan gebruiken als alternatief voor de zoekmachine. Maar wat veel mensen zich niet realiseren: het is geen zoekmachine. ChatGPT is een taalmodel. Het is getraind op het genereren van teksten. Zie het als een slimme autocomplete die woord voor woord een tekst voor je genereert.”
In workshops geeft Manon vaak het voorbeeld van de Amerikaanse advocaat die ChatGPT gebruikte om jurisprudentie te zoeken. “Maar eigenlijk vraag je het systeem dan om teksten te genereren die lijken op jurisprudentie in soortgelijke zaken. Hij kreeg dus niet-bestaande rechtbankdossiers. Veel mensen zeggen dan dat het systeem hallucineert, maar het doet eigenlijk precies wat er gevraagd wordt: genereer een tekst die lijkt op…”
Manipulatie van informatie, social engineering, deepporn en identiteitsdiefstal ziet de politie als een van de grootste uitdagingen. “Iemand kan met één druk op de knop dezelfde boodschap op honderden verschillende websites publiceren. Via algoritmes – ook een vorm van AI – kunnen die resultaten hoog in de zoekmachines en tijdlijnen komen. Het is bijna niet meer mogelijk te herkennen welke informatie echt is of door een bot is gegenereerd.”
Internetcriminelen misbruiken taalmodellen voor social engineering ten behoeve van verschillende vormen van fraude. Daar is inmiddels ook al de eerste tooling voor te vinden op het darkweb: FraudGPT.
Detectietools werken niet
Detectietools hebben nauwelijks effect, vanwege het zelflerende vermogen van kunstmatige intelligentie. Manon: “De systemen om deepfakes te maken hebben standaard een ingebakken detector. Deze discriminator – zoals dat technisch heet – beoordeelt elke keer of het gegenereerde resultaat echt genoeg lijkt. Dus elke keer dat die detector beter wordt, wordt dat ook gebruikt om betere resultaten te genereren.” En daarom lopen detectietools dus steeds achter de feiten aan.
Manon: “Een watermerk waardoor je zou weten wat de echte bron van iets is, zou wel kunnen helpen. Dit wordt ook wel 'provenance' genoemd; je weet dan nog niet of de informatie betrouwbaar is, maar je kunt wel vaststellen van welke bron het komt en of het tussentijds gemanipuleerd is. Het is dan aan de gebruiker om te bepalen of deze de bron vertrouwt. Dat past in een democratie.”
Daarnaast moet het normaal worden om extra stappen te zetten om meer zekerheid te krijgen over de betrouwbaarheid van iets. “Je kunt daar afspraken over maken. Bijvoorbeeld: ik handel een factuur alleen af als dit als er de mogelijkheid bij zitten om te controleren wat de bron is.”
Mislukte CEO-fraude
Door de snelle opmars van synthetische media, komt ook het online werken in gevaar, volgens Manon. Via speelse apps kun je in een handomdraai allerlei foto’s en video’s genereren, en met 30 seconden stemgeluid kun je iemand 7 verschillende talen laten spreken. Onlangs kwam Bunq Bank in het nieuws vanwege een mislukte poging tot CEO-fraude. Een medewerker van de bank kreeg via een videogesprek met de topman van het bedrijf het verzoek om geld over te maken. Het bleek om een deepfake te gaan. Gelukkig was de medewerker oplettend genoeg om zelf de CEO terug te bellen.
Volgens Manon is dat het type gedrag waar we naartoe moeten. “Dit lossen we niet op met regulering of technologie, dit moet je oplossen in gedrag. Het moet normaal worden om een controlevraag te stellen. Je moet trots zijn op iemand die een extra vraag stelt. Ik vergelijk het met het slot op de deur. Dat vonden we vroeger onzin, je deed de deur dicht en ging weg. We waren boos dat het nodig was, maar nu zijn we het normaal gaan vinden. Dat minimale stukje van reflectie moet in het denken komen. Zeker als er sprake is van een onomkeerbare handeling, zoals geld overmaken of informatie delen.”
Menselijk contact
Daarnaast moeten we terug naar menselijk contact, vindt Manon. “Menselijke interactie is nog altijd het beste. Er zijn leveranciers die zeggen: in onze applicatie zit deepfake detectie ingebouwd. Maar dat gaat niet werken. Je hebt geen controle op wat of wie er aan de andere kant zit. Sollicitatiegesprekken moet je bij voorkeur ook niet via internet voeren. Je hebt tegenwoordig plug-ins waarbij een vraag gelijk wordt omgezet in tekst, en doorgestuurd wordt naar ChatGPT. Zo krijgen sollicitanten automatisch een antwoord-suggestie.”
Het is heel simpel, zegt Manon. “Als je vertrouwelijke gesprekken hebt, kun je ze beter in persoon voeren. En een algemene tip. Kijk als bedrijf heel goed waar je AI voor inzet. Weet welke vragen je moet stellen aan leveranciers. Veel bedrijven laten zich overtuigen door consultants en verkopers. Maar vraag altijd door. En als je niet weet welke vragen belangrijk zijn om te stellen, moet je advies vragen. Maak kritische afwegingen. Je levert altijd iets in aan authenticiteit, autonomie en/of grip. Denk daar goed over na.”
Misbruik via AI lossen we niet op met regulering of technologie, dit moet je oplossen in gedrag.
Tips van Manon
- Voer nooit vertrouwelijke gegevens in ChatGPT of vergelijkbare taalmodellen. Dus ook geen namen van personen. Wees je bewust dat het systemen zijn gericht op het genereren van teksten ‘die lijken op’, het is geen zoekmachine, er zit geen database achter, dus gebruik het niet als feitelijkheid belangrijk is.
- Twijfel je over de identiteit van de persoon aan de andere kant van de lijn? Stel voor dat je even terug belt op het nummer dat je zelf in de telefoon hebt staan of invoert, of stel een belevingsvraag. Bijvoorbeeld: Hoe was je gesprek gisteren?
- Onderzoek welke oplossingen je in afstemming met partners in de keten kunt doorvoeren om de authenticiteit van de afzender van facturen of andere belangrijke communicatie, vast te stellen. Grijp terug op adviezen relevant voor bijvoorbeeld phishing of CEO-fraude. Deze vormen van cyberincidenten blijven in de basis hetzelfde ook al wordt AI als hulpmiddel ingezet.
- Weet welke vragen je moet stellen bij de aanschaf van inkoop van software. Bijvoorbeeld: Op welke manier maakt deze software gebruik van kunstmatige intelligentie, hoe is het getraind, wat gebeurt er met deze data en welke veiligheidsvraagstukken spelen er?