Sådan arkitekter du sikkert AI i dine cybersikkerhedsprogrammer

Sådan arkitekter du sikkert AI i dine cybersikkerhedsprogrammer

How to Safely Architect AI in Your Cybersecurity Programs PlatoBlockchain Data Intelligence. Vertical Search. Ai.

I slutningen af ​​juni afslørede cybersikkerhedsfirmaet Group-IB en bemærkelsesværdig sikkerhedsbrud, der påvirkede ChatGPT-konti. Virksomheden identificerede svimlende 100,000 kompromitterede enheder, hver med ChatGPT-legitimationsoplysninger, der efterfølgende blev handlet på ulovlige Dark Web-markedspladser i løbet af det sidste år. Dette brud tilskyndede til øjeblikkelig opmærksomhed for at løse den kompromitterede sikkerhed af ChatGPT-konti, da søgeforespørgsler, der indeholder følsomme oplysninger, bliver udsat for hackere.

I en anden hændelse, inden for en periode på mindre end en måned, oplevede Samsung tre dokumenterede tilfælde, hvor ansatte utilsigtet lækket følsomme oplysninger gennem ChatGPT. Fordi ChatGPT beholder brugerinputdata for at forbedre sin egen ydeevne, er disse værdifulde forretningshemmeligheder tilhørende Samsung nu i besiddelse af OpenAI, firmaet bag AI-tjenesten. Dette giver anledning til betydelige bekymringer med hensyn til fortroligheden og sikkerheden af ​​Samsungs proprietære oplysninger.

På grund af sådanne bekymringer om ChatGPTs overholdelse af EU's generelle databeskyttelsesforordning (GDPR), som pålægger strenge retningslinjer for dataindsamling og brug, Italien har indført et landsdækkende forbud om brugen af ​​ChatGPT.

Hurtige fremskridt inden for AI og generative AI-applikationer har åbnet nye muligheder for at accelerere væksten inden for business intelligence, produkter og drift. Men ejere af cybersikkerhedsprogram skal sikre databeskyttelse, mens de venter på, at love bliver udviklet.

Offentlig motor versus privat motor

For bedre at forstå begreberne, lad os starte med at definere offentlig AI og privat AI. Offentlig AI refererer til offentligt tilgængelige AI-softwareapplikationer, der er blevet trænet i datasæt, ofte hentet fra brugere eller kunder. Et godt eksempel på offentlig AI er ChatGPT, som udnytter offentligt tilgængelige data fra internettet, herunder tekstartikler, billeder og videoer.

Offentlig AI kan også omfatte algoritmer, der bruger datasæt, der ikke er eksklusive for en specifik bruger eller organisation. Derfor bør kunder af offentlig AI være opmærksomme på, at deres data muligvis ikke forbliver helt private.

Privat AI involverer på den anden side træning af algoritmer på data, der er unikke for en bestemt bruger eller organisation. I dette tilfælde, hvis du bruger maskinlæringssystemer til at træne en model ved hjælp af et specifikt datasæt, såsom fakturaer eller skatteformularer, forbliver denne model eksklusiv for din organisation. Platformleverandører bruger ikke dine data til at træne deres egne modeller, så privat AI forhindrer enhver brug af dine data til at hjælpe dine konkurrenter.

Integrer AI i træningsprogrammer og -politikker

For at eksperimentere, udvikle og integrere AI-applikationer i deres produkter og tjenester, mens de overholder bedste praksis, bør cybersikkerhedspersonale omsætte følgende politikker i praksis.

Brugerbevidsthed og uddannelse: Lær brugerne om de risici, der er forbundet med at bruge kunstig intelligens, og tilskynd dem til at være forsigtige, når de overfører følsomme oplysninger. Fremme sikker kommunikationspraksis og rådgiv brugerne til at verificere AI-systemets ægthed.

  • Dataminimering: Giv kun AI-motoren den mindste mængde data, der er nødvendig for at udføre opgaven. Undgå at dele unødvendige eller følsomme oplysninger, der ikke er relevante for AI-behandlingen.
  • Anonymisering og afidentifikation: Når det er muligt, anonymiser eller afidentificer dataene, før de indtastes i AI-motoren. Dette involverer fjernelse af personligt identificerbare oplysninger (PII) eller andre følsomme egenskaber, der ikke er nødvendige for AI-behandlingen.

Praksis for sikker datahåndtering: Etabler strenge politikker og procedurer for håndtering af dine følsomme data. Begræns adgangen til kun autoriseret personale og håndhæv stærke autentificeringsmekanismer for at forhindre uautoriseret adgang. Træn medarbejdere i bedste praksis for databeskyttelse, og implementer lognings- og revisionsmekanismer for at spore dataadgang og -brug.

Opbevaring og bortskaffelse: Definer dataopbevaringspolitikker og bortskaf dataene sikkert, når de ikke længere er nødvendige. Implementer korrekt mekanismer til bortskaffelse af data, såsom sikker sletning eller kryptografisk sletning, for at sikre, at dataene ikke kan gendannes, efter at de ikke længere er nødvendige.

Juridiske og overholdelsesmæssige overvejelser: Forstå de juridiske konsekvenser af de data, du indtaster i AI-motoren. Sørg for, at den måde, brugerne anvender AI på, overholder relevante regler, som f.eks love om databeskyttelse eller branchespecifikke standarder.

Leverandørvurdering: Hvis du bruger en AI-motor leveret af en tredjepartsleverandør, skal du udføre en grundig vurdering af deres sikkerhedsforanstaltninger. Sørg for, at leverandøren følger industriens bedste praksis for datasikkerhed og privatliv, og at de har passende sikkerhedsforanstaltninger på plads for at beskytte dine data. ISO- og SOC-attestering giver for eksempel værdifulde tredjepartsvalideringer af en leverandørs overholdelse af anerkendte standarder og deres engagement i informationssikkerhed.

Formaliser en politik for acceptabel brug af AI (AUP): En politik for acceptabel brug af AI bør skitsere formålet med og målene for politikken, idet der lægges vægt på ansvarlig og etisk brug af AI-teknologier. Den bør definere acceptable use cases, specificere omfanget og grænserne for AI-anvendelse. AUP'en bør tilskynde til gennemsigtighed, ansvarlighed og ansvarlig beslutningstagning i AI-brug og fremme en kultur af etisk AI-praksis i organisationen. Regelmæssige anmeldelser og opdateringer sikrer politikkens relevans for udviklende AI-teknologier og etik.

konklusioner

Ved at overholde disse retningslinjer kan programejere effektivt udnytte AI-værktøjer, samtidig med at de beskytter følsomme oplysninger og opretholder etiske og professionelle standarder. Det er afgørende at gennemgå AI-genereret materiale for nøjagtighed og samtidig beskytte de indtastede data, der indgår i generering af svarprompter.

Tidsstempel:

Mere fra Mørk læsning