AI-security is niet langer optioneel
Het zal je niet zijn ontgaan: afgelopen week werd DeepSeek gelanceerd, de gloednieuwe AI-chatbot van Chinese afkomst die veel efficiënter én goedkoper lijkt dan zijn Amerikaanse tegenhangers. DeepSeek is in een relatief korte periode super populair geworden en massaal gedownload.
Deze week werd DeepSeek echter slachtoffer van een cyberaanval. Zo was het onder meer niet meer mogelijk om in te loggen. De storingen op maandag zijn inmiddels opgelost maar het waren de langste in ongeveer drie maanden en vielen samen met de explosieve populariteit van deze nieuwe AI-dienst. Maar nog erger dan die storing is de breach die in de afgelopen 24 uur is ontdekt. Hierbij is extreem gevoelige informatie (waaronder chathistorie, beveiligingssleutels en backend data) gelekt.
Dit incident benadrukt een fundamenteel probleem: ontwikkelaars van AI negeren permanent beveiligingsissues. Deze casus rondom DeepSeek zou een wake-up call moeten zijn. De gehele industrie moet security niet langer als bijzaak beschouwen en zou cybersecurity vanaf de ontwerpfase van AI-modellen moeten integreren. Als AI-bedrijven deze ‘gaten’ niet aanpakken, kunnen we dit soort aanvallen op grote schaal zien terugkeren.
Daarbovenop: de aanpak van DeepSeek op het gebied van dataprivacy is zorgwekkend. In tegenstelling tot OpenAI dat (hoewel niet perfect) is toegewijd aan privacy en anonimisering, verzamelt en bewaart DeepSeek enorme hoeveelheden gebruikersgegevens in China, zonder duidelijke maatregelen om data te anonimiseren. Dat vormt een aanzienlijk risico; niet alleen vanuit securityperspectief, maar ook met betrekking tot mogelijk misbruik en datalekken zoals nu is gebleken, regelgevende kwesties en het algemene vertrouwen in AI-systemen.
Concluderend: beveiliging van en rondom AI is niet langer optioneel. Organisaties die dit soort modellen ontwikkelen, moeten security vanaf dag één serieus nemen. Privacyregelgeving moet rekening houden met de realiteit van cyberverdediging én de
industrie als geheel moet stoppen met het achter de feiten aanlopen als het om AI-security gaat. Als we dit nu niet oplossen, bieden we aanvallers een (nog) groter speelveld.
Rob T. Lee
SANS Institute Chief of Researc