Skip to main content
Arrow Electronics, Inc.
interior, train station
Artikel

AI en beveiliging — Wat is de afweging?

| Kristin D. Russell

Het afwegen van de risico's en de potentiële belofte van AI

Het is niet verwonderlijk dat AI alle aspecten van de moderne bedrijfsvoering doordringt, inclusief IT, en beveiliging is niet immuun. De rol van AI bij het versterken van software en systemen is een belangrijk aandachtspunt geworden voor ondernemingen. Tegelijkertijd investeren slechte actoren in AI om de schaal en omvang van aanvallen uit te breiden. Moderne AI-voorbeelden hebben ertoe geleid dat experts speculeren dat AI zelf een bedreiging zal zijn voor ondernemingen, omdat het kan worden gemanipuleerd voor ongeoorloofde doeleinden.

Traditioneel worden de kwetsbaarheden die in cyberbeveiliging voorkomen vaak toegeschreven aan problemen binnen de systeemarchitectuur. AI introduceert nieuwe kwetsbaarheden vanwege de complexe datamodellen en onderlinge afhankelijkheden. Deze dubbele aard van AI brengt een unieke uitdaging met zich mee voor bedrijfsbeveiliging. Stelt u zich een scenario voor waarin een AI-systeem dat infrastructuur verdedigt, de strijd aangaat met een ander AI-systeem dat uitsluitend is ontworpen om zijn defensieve tegenhanger te beschadigen.

De belofte van AI

AI-praktijken bestaan al vele jaren bij enkele van de grootste technologieleveranciers. Beloften om kosten te verlagen, problemen op te lossen, winsten te verhogen en meer zijn binnen handbereik. Deze voordelen komen voornamelijk voort uit het vermogen van AI om taken te automatiseren waarvoor voorheen gespecialiseerde menselijke arbeid en expertise nodig waren. Verder is het de kundigheid om de kleinste afwijkingen en anomalieën snel en nauwkeurig te detecteren - en bedrijfsverliezen te minimaliseren of te elimineren of de winst te maximaliseren - die zwaar telt. Deze voordelen kunnen een bedrijf helpen zijn concurrenten een grote sprong voor te zijn.

Dat geldt ook voor cyberbeveiliging. Beloften dat AI onze IT-middelen en intellectueel eigendom beter kan beschermen, plagen ons al jaren. We zien dat veel leveranciers van cyberbeveiliging dit vandaag plannen of implementeren:

  • AI kan complexe configuraties bouwen door vragen te stellen over een bedrijf
  • AI mijnt gegevensopslagplaatsen om vragen van gebruikers te beantwoorden
  • AI vindt mutaties in realtime en kan geïnfecteerde systemen herstellen

Met een tekort aan cyberbeveiligingstalent begint AI die kloof te dichten en de al jaren beloofde broodnodige controles en saldi te bieden.     

Houd rekening met de risico's

Het schaduwpotentieel van AI is reden tot bezorgdheid. Naarmate AI vordert, zal het veel meer slechte actoren in staat stellen om aanvallen uit te voeren. Deze nieuwe bedreigingen kunnen het beveiligingslandschap hervormen met AI die nieuwe wegen opent voor cyberaanvallen. Deze aanvallen, ontlast van menselijke beperkingen, duiken op als een onheilspellende bedreiging, in staat tot eindeloze gelijktijdige gebeurtenissen. Een paar voorbeelden onderstrepen dit opkomende gevaar:

  • AI-mogelijkheden, zoals patroonherkenning en natuurlijke taalverwerking, kunnen worden gebruikt om mensen te misleiden en zich voor te doen als mensen. Zelfs hechte teamleden zijn misleid door recente tests.
  • AI die wordt gebruikt om menselijk gedrag, stemmingen, profielen en neigingen te analyseren, kan nieuwe munitie bieden voor potentiële hackers om beveiligingssystemen in gevaar te brengen, ransomware-aanvallen uit te voeren, de publieke opinie te doen kantelen en nog veel meer.

Herdefinieer uw verdedigingsstrategie

Ondernemingen die AI in hun producten, hun bedrijfsbeveiliging of voor een aantal andere doeleinden overwegen, moeten rekening houden met de mogelijkheid dat AI zelf kan worden gemanipuleerd met behulp van vergiftigde datasets om het oorspronkelijk gewenste AI-gedrag te wijzigen.

De opkomst van AI-gestuurde bedreigingen markeert een cruciaal moment in cyber- en fysieke beveiliging. Vooruitgang brengt kwetsbaarheden met zich mee en innovatie brengt risico's met zich mee. Ondernemingen moeten zich aanpassen en verdedigingen en strategieën herdefiniëren om door dit evoluerende landschap te navigeren. Waakzaamheid is van het grootste belang in het licht van de dubbele aard van AI.  

Hoewel veel werk afhangt van vaststelling van normen, bestuur en ethiek rond het juiste gebruik van AI, stellen experts voor om een AI-nalevingskader te creëren dat vergelijkbaar is met de Payment Card Industry Data Security Standard (PCI-DSS).

Totdat er een nalevingskader ontstaat, dienen AI-implementaties een op beste praktijken gebaseerde aanpak te gebruiken:

  • Onderzoeken van de gehele levenscyclus van het product/AI-systeem op kwetsbaarheden en kansen  
  • Beoordelen van de beveiliging, beschikbaarheid en toegang tot de gegevens die worden gebruikt om AI-algoritmen te trainen
  • Bepalen van de werkelijke ROI van AI in producten en systemen
  • Identificeren van een AI-bedreigingsbeperkingsplan en toevoegen van herstel- en actieplanning aan het beveiligingsplan van de onderneming

Arrow Electronics stelt leveranciers van IT-oplossingen en dienstverleners in staat om beveiliging in uw gehele praktijk te begrijpen, uit te voeren en te gelde te maken. Verken onze website of neem contact op met een vertegenwoordiger van Arrow voor meer informatie over onze beveiligingsproducten, -oplossingen en -mogelijkheden.

Word een kanaalpartner
Partner worden