Hur man säkert bygger AI i dina cybersäkerhetsprogram

Hur man säkert bygger AI i dina cybersäkerhetsprogram

Hur man säkert bygger AI i dina cybersäkerhetsprogram PlatoBlockchain Data Intelligence. Vertikal sökning. Ai.

I slutet av juni avslöjade cybersäkerhetsföretaget Group-IB en anmärkningsvärd säkerhetsintrång som påverkade ChatGPT-konton. Företaget identifierade häpnadsväckande 100,000 XNUMX komprometterade enheter, var och en med ChatGPT-uppgifter som sedan handlades på otillåtna Dark Web-marknadsplatser under det senaste året. Detta brott föranledde omedelbar uppmärksamhet för att ta itu med den äventyrade säkerheten för ChatGPT-konton, eftersom sökfrågor som innehåller känslig information blir utsatta för hackare.

I en annan incident, inom mindre än en månad, drabbades Samsung av tre dokumenterade fall där anställda oavsiktligt läckt känslig information via ChatGPT. Eftersom ChatGPT behåller användarindata för att förbättra sin egen prestanda, är dessa värdefulla affärshemligheter som tillhör Samsung nu i ägo av OpenAI, företaget bakom AI-tjänsten. Detta ger upphov till betydande oro angående konfidentialitet och säkerhet för Samsungs proprietära information.

På grund av sådana farhågor om ChatGPT:s efterlevnad av EU:s allmänna dataskyddsförordning (GDPR), som kräver strikta riktlinjer för datainsamling och användning, Italien har infört ett rikstäckande förbud om användningen av ChatGPT.

Snabba framsteg inom AI och generativa AI-tillämpningar har öppnat nya möjligheter för att accelerera tillväxten inom affärsintelligens, produkter och verksamhet. Men ägare av cybersäkerhetsprogram måste säkerställa datasekretess medan de väntar på att lagar ska utvecklas.

Offentlig motor kontra privat motor

För att bättre förstå begreppen, låt oss börja med att definiera offentlig AI och privat AI. Offentlig AI hänvisar till allmänt tillgängliga AI-programvaruapplikationer som har tränats på datauppsättningar, ofta hämtade från användare eller kunder. Ett utmärkt exempel på offentlig AI är ChatGPT, som utnyttjar allmänt tillgänglig data från Internet, inklusive textartiklar, bilder och videor.

Offentlig AI kan också omfatta algoritmer som använder datauppsättningar som inte är exklusiva för en specifik användare eller organisation. Följaktligen bör kunder av offentlig AI vara medvetna om att deras data kanske inte förblir helt privat.

Privat AI, å andra sidan, innebär att träna algoritmer på data som är unik för en viss användare eller organisation. I det här fallet, om du använder maskininlärningssystem för att träna en modell med hjälp av en specifik datauppsättning, till exempel fakturor eller skatteformulär, förblir den modellen exklusivt för din organisation. Plattformsleverantörer använder inte din data för att träna sina egna modeller, så privat AI förhindrar all användning av din data för att hjälpa dina konkurrenter.

Integrera AI i utbildningsprogram och policyer

För att experimentera, utveckla och integrera AI-applikationer i sina produkter och tjänster samtidigt som de följer bästa praxis, bör cybersäkerhetspersonal omsätta följande policyer i praktiken.

Användarmedvetenhet och utbildning: Utbilda användare om riskerna med att använda AI och uppmuntra dem att vara försiktiga när de överför känslig information. Främja säkra kommunikationsmetoder och råda användare att verifiera AI-systemets äkthet.

  • Dataminimering: Ge endast AI-motorn den minsta mängd data som krävs för att utföra uppgiften. Undvik att dela onödig eller känslig information som inte är relevant för AI-bearbetningen.
  • Anonymisering och avidentifiering: Om möjligt, anonymisera eller avidentifiera data innan du matar in den i AI-motorn. Detta innebär att man tar bort personligt identifierbar information (PII) eller andra känsliga attribut som inte krävs för AI-behandlingen.

Säker datahanteringsmetoder: Upprätta strikta policyer och rutiner för hantering av dina känsliga uppgifter. Begränsa åtkomsten till endast auktoriserad personal och framtvinga starka autentiseringsmekanismer för att förhindra obehörig åtkomst. Utbilda anställda i bästa praxis för datasekretess och implementera loggnings- och revisionsmekanismer för att spåra dataåtkomst och användning.

Retention och kassering: Definiera policyer för datalagring och kassera data på ett säkert sätt när de inte längre behövs. Implementera ordentligt mekanismer för bortskaffande av data, till exempel säker radering eller kryptografisk radering, för att säkerställa att data inte kan återställas efter att de inte längre behövs.

Juridiska och efterlevnadsöverväganden: Förstå de juridiska konsekvenserna av den data du matar in i AI-motorn. Se till att hur användarna använder AI:n överensstämmer med relevanta bestämmelser, som t.ex lagar om dataskydd eller branschspecifika standarder.

Säljarens bedömning: Om du använder en AI-motor från en tredjepartsleverantör, utför en grundlig bedömning av deras säkerhetsåtgärder. Se till att leverantören följer branschens bästa praxis för datasäkerhet och integritet, och att de har lämpliga skyddsåtgärder på plats för att skydda din data. ISO- och SOC-intyg ger till exempel värdefulla tredjepartsvalideringar av en leverantörs efterlevnad av erkända standarder och deras engagemang för informationssäkerhet.

Formalisera en policy för acceptabel användning av AI (AUP): En policy för acceptabel användning av AI bör beskriva syftet och målen med policyn, med betoning på ansvarsfull och etisk användning av AI-teknik. Den bör definiera acceptabla användningsfall, specificera omfattningen och gränserna för AI-användning. AUP bör uppmuntra transparens, ansvarsskyldighet och ansvarsfullt beslutsfattande i AI-användning, och främja en kultur av etisk AI-praxis inom organisationen. Regelbundna granskningar och uppdateringar säkerställer policyns relevans för utvecklande AI-teknik och etik.

Slutsatser

Genom att följa dessa riktlinjer kan programägare effektivt utnyttja AI-verktyg samtidigt som de skyddar känslig information och upprätthåller etiska och professionella standarder. Det är avgörande att granska AI-genererat material för noggrannhet samtidigt som man skyddar de inmatade data som används för att generera svarsmeddelanden.

Tidsstämpel:

Mer från Mörk läsning