AI - kans of bedreiging?
Kunstmatige Intelligentie of artificiële intelligentie (afgekort AI) bestaat al heel lang, maar is de afgelopen jaren in een stroomversnelling gekomen doordat AI nu, op basis van het trainen op enorme hoeveelheden aan voorbeeld materiaal, onder andere zelf in staat is om realistische teksten, geluiden en beelden te genereren. Bekende voorbeelden zijn deepfakes en taalmodellen zoals ChatGPT en Google Bard.
Wat is AI?
AI werkt met algoritmen die in software beschreven zijn. Een algoritme kun je zien als een recept; het is een set aan instructies voor het bereiken van een bepaald doel. Kort gezegd verwijst AI naar systemen die op basis van informatie uit de omgeving of input(data) met een zekere mate van zelfstandigheid een actie kunnen ondernemen of antwoord kunnen aandragen. Denk bijvoorbeeld aan apps die gezichten of voorwerpen in foto’s kunnen herkennen. Of een muziekapp die op basis van je luistergeschiedenis suggesties doet voor muziek die bij jou past.
Maar de toekomst belooft ons meer. AI kan gaan zorgen voor snellere en betere medische diagnoses. AI kan helpen bij het sorteren en scheiden van afval. AI is daarnaast op een krappe arbeidsmarkt een onvermoeibare 'medewerker' die op basis van veel data snel zelfstandige keuzes kan maken.
Generatieve AI
In de laatste jaren waren er grote doorbraken in generatieve AI. Dit is een vorm waarbij er nieuw materiaal of klonen gemaakt kunnen worden. Beelden, geluid en teksten die hiermee gegenereerd of gemanipuleerd zijn, worden 'synthetische media' genoemd. Het wordt gebruikt voor allerlei toepassingen, zoals meer diversiteit in stockfoto's, het aanspreken van mensen in hun eigen taal, het genereren van marketingmateriaal, stemklonen voor ALS-patiënten en educatie. Er wordt al geëxperimenteerd met AI nieuwslezers die 24/7 het nieuws brengen zonder ooit moe te worden. En ook (stem)acteurs zien mogelijkheden om hun kloon te laten bijverdienen in reclames of met audioboeken. Allemaal interessante toepassingen van synthetische media.
De generatieve AI-vormen waar we voor de cyberveiligheid van bedrijven aandacht voor vragen is, zijn 'deepfakes' en taalmodellen.
-
Deepfakes
De term deepfakes verwees oorspronkelijk naar een specifieke vorm van kunstmatige intelligentie genaamd GAN. Bij GAN zetten twee systemen elkaar continu aan tot verbetering door steeds betere voorspellingen te maken. Het ene systeem, de generator, is getraind met bijvoorbeeld heel veel foto’s van gezichten, waardoor het in staat is nieuwe gezichten te genereren of gezichten in beelden te vervangen (face swaps) of te klonen. Hier tegenover staat een tweede AI-systeem, de discriminator. Die beoordeelt of iets echt of nep is; het is een deepfake detector. Alleen dat wat volgens de discriminator realistisch genoeg is, wordt toegestaan. Wat voor beelden van gezichten geldt, kan ook toegepast worden op audio. Zo kan bijvoorbeeld ook stemgeluid nagemaakt worden. Het kenmerkende van deepfakes is dat de generator en de discriminator elkaar continu dwingen om te verbeteren. Daarom is het zo lastig om goede deepfake detectietools te ontwikkelen. Ze worden meteen weer gebruikt om de generator van deepfakes te trainen betere deepfakes te maken.
-
Taalmodellen
Er zijn zogenoemde Large Language Models (LLM) die teksten genereren op basis van statistiek; welk woord zal het meest waarschijnlijk volgen op wat er al is? Een LLM genereert teksten door grote hoeveelheden andere teksten (wiskundig) te bestuderen. Het leert de structuur en het gebruik van de taal. Ook leert het de relatie tussen woorden of delen van woorden in diverse contexten. Op basis van alle relaties die het model kent, voorspelt het wat het meest waarschijnlijke volgende woord is. En dat voor elk woord in de tekst. Uiteindelijk vergelijkt het zijn eigen resultaat met de oorspronkelijke tekst. Afhankelijk van hoe goed of slecht het was, past het zijn kansberekening aan, waarbij het woord dat er op had moeten volgen voortaan een iets hoger gewicht (en dus statistische kans) krijgt.
Zo'n model is erg complex. En het aantal gewichtjes (parameters) stijgt exponentieel. GPT4 is de nieuwste versie van Open AI's LLM. Het schijnt zes keer zo groot te zijn als GPT3. Het groeide van 175 miljard naar 1 biljoen parameters. De nieuwste versie is ook multimodaal; het bestudeert en gebruikt ook beeldinvoer om echt lijkende teksten te genereren.
Een LLM kent de betekenis van de woorden niet. Het heeft geen overzicht van de feiten. ChatGPT en Gemini zijn de bekendste applicaties die synthetische teksten met LLM maken. Ook voor beelden en geluiden zijn er inmiddels modellen die klonen of nieuw materiaal kunnen maken dat nauwelijks van een origineel te onderscheiden is. Dit kan natuurlijk grote (schaal)voordelen opleveren maar het kan gemakkelijk copyright problemen opleveren.
Hoeveel fouten kun jij ontdekken in deze afbeelding?
Met AI kunnen nieuwe beelden gemaakt worden, maar vaak zijn er toch nog fouten te ontdekken in deze genereerde AI-afbeeldingen. Deze afbeelding is gegenereerd met de AI-applicatie Magic Media in Canva met de prompt: Maak afbeelding met robothand en mensenhand.
Hoeveel fouten kun jij ontdekken in deze visual?
Benieuwd naar de oplossing?
Bekijk de fouten in deze AI-visual.
Misbruik via AI lossen we niet op met regulering of technologie, dit moet je oplossen in gedrag.
Politie over het misbruik van AI
Manon van Dunnen, Strategisch Specialist Digitaal bij de politie, pleit voor een gedragsverandering. “Het moet normaal worden om even terug te bellen of een controlevraag te stellen. Of bespreek het in persoon.” Lees welke inzichten de politie heeft als het gaat om misbruik van AI.
Welke risico's kleven er aan generatieve AI?
Generatieve AI heeft enorm veel potentie omdat het kan ondersteunen in nagenoeg alle werkprocessen. zoals het genereren van tekst, websites en andere opmaak en afbeeldingen voor marketingmateriaal. Het kan ook ondersteunen in het opstellen van SWOT-analyses, business cases, scenario’s, volledig geautomatiseerde verkoopgesprekken, meertalige documenten of websites etc. Keerzijde is dat er ook cyberrisico's aan generatieve AI kleven.
AI en cybercriminaliteit
Deskundigen van Europol identificeren de volgende drie vormen van cybercriminaliteit als zorgelijk als het gaat om LLM's zoals ChatGPT.
-
Fraude en social engineering
LLM’s zijn in staat om zeer realistische teksten op te stellen. Dit maakt het een handig hulpmiddel voor cybercriminelen. Met een goed gelijkende of overtuigend persoonlijke e-mail kunnen inloggegevens ontfutseld worden (phishing). Daarnaast is het voor AI-tools ook mogelijk om stemmen en gezichten te klonen. Dat biedt kansen voor social engineering waarbij mensen gemanipuleerd worden om bepaalde gegevens te verstrekken of specifieke acties (zoals betalingen) te verrichten. Een voorbeeld hiervan is CEO-fraude. waarbij phishingmails die afkomstig lijken van een leidinggevende verstuurd worden aan specifieke sleutelposities binnen een bedrijf. Ook komt het voor dat er stemklonen gebruikt worden in combinatie met CEO-fraude.
-
Desinformatie
ChatGPT produceert authentiek lijkende teksten op schaal en met grote snelheid. Dit maakt dit soort modellen ideaal voor propaganda- en desinformatiedoeleinden omdat het gebruikers in staat stelt om met relatief weinig moeite berichten te genereren en te verspreiden die een specifiek verhaal reflecteren.
-
Malware
Naast het genereren van realistische taal, is ChatGPT in staat om code te produceren in een aantal verschillende programmeertalen. Voor een potentiële crimineel met weinig technische kennis is dit een onschatbare bron om kwaadaardige code zoals malware te produceren.
Verstandig gebruik van LLM's
De verleiding is groot om LLM's te gebruiken voor je werk. Mogelijk helpt een LLM je bij het opstellen van teksten, rapporten of analyses. Het is belangrijk om je te beseffen dat alle ingevoerde informatie kan worden gebruikt om het LLM verder te trainen en te verfijnen. Ook privacygevoelige informatie kan worden hergebruikt. Het delen van persoonlijke informatie met een LLM als ondernemer of als medewerker van een organisatie is in juridische zin meestal verboden onder de AVG/GDPR. De effecten van het delen zijn niet direct zichtbaar, maar kunnen na een paar trainingsrondes blijken: het is niet uit te sluiten dat de met het LLM gedeelde informatie wordt weergegeven in willekeurige antwoorden naar andere LLM-gebruikers. Deel daarom nooit gevoelige bedrijfsgegevens met een LLM.
Relevante links
Wees je bewust van de keerzijde van generatieve AI
AI ontwikkelt zich in een hoog tempo. De toepassingen met AI zijn talrijk. Weten je medewerkers of collega's al hoe misbruik kan worden gemaakt van generatieve AI? Het kan geen kwaad om hen eens te wijzen op de verschillende soorten online fraude die in het zakelijk verkeer voorkomen. Dat kan ook via een quiz om het kennispeil te meten.