Webinar on Demand | Hacking AI - Understanding cyber risks in AI-driven applications

WEBINAR ON DEMAND | CYBERSECURITY

U bent uitgenodigd om de replay te bekijken van ons aankomende webinar over de cybersecurityrisico's van AI-gedreven applicaties. Naarmate AI steeds meer geïntegreerd raakt in kritieke processen, is het essentieel te begrijpen hoe kwaadwillenden deze systemen kunnen misbruiken. Als u betrokken bent bij AI-operaties, ontwikkeling of cybersecurity, biedt deze sessie waardevolle inzichten.

Met de opkomst van AI staan organisaties voor nieuwe kwetsbaarheden die verschillen van traditionele cyberdreigingen. Van datalekken tot ongeautoriseerde toegang: AI kan unieke aanvalspaden creëren die gevoelig zijn voor misbruik.

Tijdens deze sessie zal Ralph Moonen, Technisch Directeur bij Secura/Bureau Veritas, de mogelijke aanvalsvectoren binnen AI-systemen onderzoeken en praktische mitigaties bespreken om uw applicaties te beschermen. Ontdek de risico’s van AI-gedreven technologieën en leer praktische stappen om uw organisatie te beveiligen.

BEKIJK DE OPNAME

Belangrijke onderwerpen in dit webinar

Hier zijn de belangrijkste punten uit het webinar:

1. AI als een Cybersecurityrisico: Belangrijkste Bedreigingen en Kwetsbaarheden

  • AI-modellen kunnen vertrouwelijke gegevens lekken als ze zijn getraind op datasets met gevoelige informatie (bijvoorbeeld wachtwoorden of persoonlijke gegevens).
  • Promptinjectie is een veelgebruikte aanvalstechniek waarbij AI-systemen worden gemanipuleerd om ongewenst gedrag te vertonen, zoals het vrijgeven van gevoelige gegevens of het uitvoeren van kwaadaardige acties.
  • Dreigingsactoren maken steeds meer gebruik van AI bij aanvallen, zoals het genereren van deepfakes en het uitvoeren van social engineeringcampagnes.

2. AI-regelgeving en -normen

  • De AI Act (Europa) classificeert AI-systemen in risicocategorieën, zoals "verboden systemen" en "hoogrisicosystemen," waarvoor strikte regulering vereist is.
  • De aanstaande ISO 42001-norm biedt een raamwerk voor AI-beheer, inclusief risicobeoordeling, ethisch gebruik en kwaliteitsborging.
  • Regionale verschillen: Europa en China richten zich op strengere regelgeving, terwijl de VS meer neigt naar richtlijnen en innovatie.

3. Best Practices voor AI-beveiliging

  • Organisaties zouden een AI-gebruiksbeleid moeten implementeren en gebruikers trainen in het herkennen van AI-gerelateerde bedreigingen, zoals deepfakes en AI-gegenereerde content.
  • Kies waar mogelijk voor on-premise AI-oplossingen, aangezien cloudgebaseerde AI risico's met zich meebrengt, zoals gegevenslekken en minder controle over beveiliging.
  • Valideer de AI-uitvoer en maak gebruik van bronnen zoals de LLM OWASP Top 10, die inzicht biedt in de belangrijkste bedreigingen en beveiligingsrichtlijnen voor AI-modellen.

Doelgroep

Dit webinar is bedoeld voor professionals die betrokken zijn bij de ontwikkeling, implementatie en beveiliging van AI-systemen en die geïnteresseerd zijn in het begrijpen van de unieke cybersecurityrisico's van AI-gedreven applicaties.

  • AI-operators die verantwoordelijk zijn voor AI-implementaties binnen hun organisatie.
  • Ontwikkelaars en IT-managers die AI-oplossingen implementeren.
  • Pentesters die zich richten op het identificeren van kwetsbaarheden in opkomende technologieën.
  • Security-professionals die geïnteresseerd zijn in het mitigeren van AI-specifieke cyberdreigingen.

Bekijk vandaag nog de replay van dit webinar:

BEKIJK DE OPNAME

Vragen & Antwoorden uit het Webinar

1. Zijn er bekende gevallen van AI-gerelateerde datalekken?

Antwoord: Ja, er zijn gedocumenteerde gevallen van AI-gerelateerde datalekken. Bijvoorbeeld, Prompt Security beschrijft 8 praktijkvoorbeelden van AI-gerelateerde datalekken.

2. Zijn er tools om AI-uitvoer te “humaniseren”?

Antwoord: Ja, het is mogelijk om AI-uitvoer te humaniseren door de AI specifieke kenmerken te laten aannemen. Daarnaast kunnen andere AI-modellen de uitvoer verwerken en verfijnen om deze natuurlijker te maken. Sommige softwaretools gebruiken AI bijvoorbeeld om menselijke nuances toe te voegen, zoals in muziekproductie, waar humanisatie de natuurlijke uitstraling van de uitvoer verbetert.

3. Hoe train je gebruikers om deepfakes te herkennen?

Antwoord: Het trainen van gebruikers om deepfakes te herkennen is een uitdaging, omdat de technologie steeds geavanceerder wordt. Een effectieve aanpak is het gebruik van unieke codewoorden of vragen die alleen een echte persoon zou weten. Een deepfake-aanval op een Ferrari-directeur werd bijvoorbeeld voorkomen door vragen te stellen die alleen het echte individu kon beantwoorden. Verhoogde waakzaamheid is cruciaal in dergelijke scenario's.

4. Zijn er risico's bij het blokkeren van alle AI's en alleen Microsoft Copilot toestaan?

Antwoord: Het volledig blokkeren van alle AI's is erg moeilijk vanwege de brede verscheidenheid aan versies en toegangsopties. Het opstellen van gebruikersbeleid en richtlijnen is een praktischere benadering dan proberen alle AI's te blokkeren.

5. Wat is er nodig om AI sentient te maken?

Antwoord: Dit is een complexe vraag. Hoewel AI's de Turing-test kunnen doorstaan, betekent dit niet dat ze bewustzijn hebben. Echte sentience zou een aanzienlijk geavanceerdere architectuur vereisen, maar het exacte pad naar bewustzijn blijft onduidelijk.

6. Hoe gebruikt Secura AI om productiviteit te verbeteren?

Antwoord: Een voorbeeld is een pen-tester die AI gebruikte om snel PowerShell-scripts te genereren voor privilege-escalatie tijdens een interne test. AI kan bijzonder nuttig zijn bij het automatiseren van repetitieve taken zoals scripting.

7. Wat zijn de risico's van het gebruik van Microsoft Copilot in softwareontwikkeling?

Antwoord: Een risico is dat invoer, zoals API-sleutels in broncode, onbedoeld kan worden gebruikt om het AI-model verder te trainen, waardoor deze sleutels toegankelijk kunnen worden voor andere gebruikers. Een ander risico ontstaat wanneer modellen zijn getraind op voorbeeldcode van platforms zoals StackOverflow, die kwetsbaarheden kunnen bevatten, wat leidt tot onveilige AI-gegenereerde code. Het uitschakelen van de optie om het model te trainen op gebruikersinvoer kan dit risico verminderen.

OVER DE SPREKER

Ralph Moonen

Ralph Moonen is Technisch Directeur bij Secura/Bureau Veritas en brengt meer dan 20 jaar ervaring in informatiebeveiliging met zich mee. Hij heeft samengewerkt met grote klanten, waaronder Fortune 500-bedrijven, overheden, financiële instellingen en internationale organisaties. Daarnaast is Ralph docent in het postdoctorale IT-auditprogramma aan de Tilburg University.

In zijn rol heeft Ralph uitgebreid onderzoek gedaan naar de cybersecurity-implicaties van kunstmatige intelligentie (AI). Hij heeft artikelen geschreven over het veilige gebruik van AI, waarbij hij mogelijke risico’s zoals datalekken en systeemmanipulatie behandelt. Zijn werk benadrukt het belang van begrip en mitigatie van de unieke beveiligingsuitdagingen die AI-technologieën met zich meebrengen.

NEEM CONTACT OP VOOR MEER INFORMATIE

Wilt u meer weten over hoe wij u kunnen helpen bij het beveiligen van uw AI-applicaties? Vul alstublieft het formulier in, en wij nemen binnen één werkdag contact met u op.

Waarom kiezen voor Secura | Bureau Veritas

Het doel van Secura/Bureau Veritas is om uw vertrouwde partner in cybersecurity te zijn. Wij gaan verder dan snelle oplossingen en geïsoleerde diensten. Onze geïntegreerde aanpak zorgt ervoor dat elk aspect van uw bedrijf of organisatie cyberweerbaar is, van uw technologie tot uw processen en uw mensen.

Secura is de cybersecuritydivisie van Bureau Veritas, gespecialiseerd in testing, inspection en certification. Bureau Veritas werd opgericht in 1828, heeft meer dan 80.000 werknemers en is actief in 140 landen.