Slik arkitekterer du AI på en sikker måte i cybersikkerhetsprogrammene dine

Slik arkitekterer du AI på en sikker måte i cybersikkerhetsprogrammene dine

Slik arkitekter du sikkert AI i cybersikkerhetsprogrammene dine PlatoBlockchain Data Intelligence. Vertikalt søk. Ai.

I slutten av juni avslørte cybersikkerhetsfirmaet Group-IB en bemerkelsesverdig sikkerhetsbrudd som påvirket ChatGPT-kontoer. Selskapet identifiserte svimlende 100,000 XNUMX kompromitterte enheter, hver med ChatGPT-legitimasjon som senere ble handlet på ulovlige Dark Web-markedsplasser i løpet av det siste året. Dette bruddet krevde umiddelbar oppmerksomhet for å løse den kompromitterte sikkerheten til ChatGPT-kontoer, siden søk som inneholder sensitiv informasjon blir utsatt for hackere.

I en annen hendelse, i løpet av mindre enn en måned, ble Samsung utsatt for tre dokumenterte tilfeller der ansatte utilsiktet lekket sensitiv informasjon gjennom ChatGPT. Fordi ChatGPT beholder brukerinndata for å forbedre sin egen ytelse, er disse verdifulle forretningshemmelighetene som tilhører Samsung nå i besittelse av OpenAI, selskapet bak AI-tjenesten. Dette skaper betydelige bekymringer angående konfidensialiteten og sikkerheten til Samsungs proprietære informasjon.

På grunn av slike bekymringer om ChatGPTs overholdelse av EUs generelle databeskyttelsesforordning (GDPR), som krever strenge retningslinjer for datainnsamling og bruk, Italia har innført et landsdekkende forbud om bruk av ChatGPT.

Raske fremskritt innen AI og generative AI-applikasjoner har åpnet for nye muligheter for å akselerere veksten innen forretningsintelligens, produkter og drift. Men eiere av cybersikkerhetsprogram må sikre datavern mens de venter på at lover skal utvikles.

Offentlig motor versus privat motor

For bedre å forstå konseptene, la oss starte med å definere offentlig AI og privat AI. Offentlig AI refererer til offentlig tilgjengelige AI-programvareapplikasjoner som har blitt trent på datasett, ofte hentet fra brukere eller kunder. Et godt eksempel på offentlig AI er ChatGPT, som utnytter offentlig tilgjengelige data fra Internett, inkludert tekstartikler, bilder og videoer.

Offentlig AI kan også omfatte algoritmer som bruker datasett som ikke er eksklusive for en spesifikk bruker eller organisasjon. Følgelig bør kunder av offentlig AI være klar over at dataene deres kanskje ikke forblir helt private.

Privat AI, derimot, innebærer opplæring av algoritmer på data som er unike for en bestemt bruker eller organisasjon. I dette tilfellet, hvis du bruker maskinlæringssystemer for å trene en modell ved hjelp av et spesifikt datasett, for eksempel fakturaer eller skatteskjemaer, forblir den modellen eksklusiv for organisasjonen din. Plattformleverandører bruker ikke dataene dine til å trene sine egne modeller, så privat AI forhindrer all bruk av dataene dine for å hjelpe konkurrentene dine.

Integrer AI i opplæringsprogrammer og retningslinjer

For å eksperimentere, utvikle og integrere AI-applikasjoner i produktene og tjenestene deres samtidig som de følger beste praksis, bør cybersikkerhetspersonalet implementere følgende retningslinjer.

Brukerbevissthet og utdanning: Lær brukere om risikoene forbundet med bruk av AI og oppmuntre dem til å være forsiktige når de overfører sensitiv informasjon. Fremme sikker kommunikasjonspraksis og råd brukerne til å verifisere ektheten til AI-systemet.

  • Dataminimering: Gi kun AI-motoren den minste mengden data som er nødvendig for å utføre oppgaven. Unngå å dele unødvendig eller sensitiv informasjon som ikke er relevant for AI-behandlingen.
  • Anonymisering og avidentifikasjon: Når det er mulig, anonymiser eller avidentifiser dataene før du legger dem inn i AI-motoren. Dette innebærer å fjerne personlig identifiserbar informasjon (PII) eller andre sensitive attributter som ikke er nødvendige for AI-behandlingen.

Praksis for sikker datahåndtering: Etabler strenge retningslinjer og prosedyrer for håndtering av sensitive data. Begrens tilgangen til kun autorisert personell og håndhev sterke autentiseringsmekanismer for å forhindre uautorisert tilgang. Lær ansatte i beste praksis for personvern og implementer loggings- og revisjonsmekanismer for å spore datatilgang og bruk.

Oppbevaring og avhending: Definer retningslinjer for oppbevaring av data og kast dataene på en sikker måte når de ikke lenger er nødvendige. Implementere riktig datadisponeringsmekanismer, for eksempel sikker sletting eller kryptografisk sletting, for å sikre at dataene ikke kan gjenopprettes etter at de ikke lenger er nødvendige.

Juridiske og overholdelseshensyn: Forstå de juridiske konsekvensene av dataene du legger inn i AI-motoren. Sørg for at måten brukerne bruker AI på samsvarer med relevante forskrifter, som f.eks lover om personvern eller bransjespesifikke standarder.

Leverandørvurdering: Hvis du bruker en AI-motor levert av en tredjepartsleverandør, utfør en grundig vurdering av sikkerhetstiltakene deres. Sørg for at leverandøren følger bransjens beste praksis for datasikkerhet og personvern, og at de har passende sikkerhetstiltak på plass for å beskytte dataene dine. ISO- og SOC-attestering, for eksempel, gir verdifull tredjeparts validering av en leverandørs overholdelse av anerkjente standarder og deres forpliktelse til informasjonssikkerhet.

Formaliser en policy for akseptabel bruk av AI (AUP): En policy for akseptabel bruk av AI bør skissere formålet med og målene for policyen, med vekt på ansvarlig og etisk bruk av AI-teknologier. Den bør definere akseptable brukstilfeller, spesifisere omfanget og grensene for AI-bruk. AUP bør oppmuntre til åpenhet, ansvarlighet og ansvarlig beslutningstaking i bruk av AI, og fremme en kultur med etisk AI-praksis i organisasjonen. Regelmessige gjennomganger og oppdateringer sikrer at retningslinjene er relevante for utviklende AI-teknologier og etikk.

Konklusjoner

Ved å følge disse retningslinjene kan programeiere effektivt utnytte AI-verktøy samtidig som de ivaretar sensitiv informasjon og opprettholder etiske og profesjonelle standarder. Det er avgjørende å gjennomgå AI-generert materiale for nøyaktighet og samtidig beskytte de innlagte dataene som brukes til å generere svarmeldinger.

Tidstempel:

Mer fra Mørk lesning