Hoe u AI veilig kunt integreren in uw cyberbeveiligingsprogramma's

Hoe u AI veilig kunt integreren in uw cyberbeveiligingsprogramma's

Hoe u AI veilig in uw cyberbeveiligingsprogramma's kunt integreren PlatoBlockchain Data Intelligence. Verticaal zoeken. Ai.

Eind juni onthulde cyberbeveiligingsbedrijf Group-IB een opmerkelijke beveiligingsinbreuk die van invloed was op ChatGPT-accounts. Het bedrijf identificeerde maar liefst 100,000 gecompromitteerde apparaten, elk met ChatGPT-referenties die vervolgens in de loop van het afgelopen jaar op illegale darkweb-markten werden verhandeld. Deze inbreuk leidde tot verzoeken om onmiddellijke aandacht om de gecompromitteerde beveiliging van ChatGPT-accounts aan te pakken, aangezien zoekopdrachten die gevoelige informatie bevatten, worden blootgesteld aan hackers.

Bij een ander incident, binnen een tijdsbestek van minder dan een maand, leed Samsung drie gedocumenteerde gevallen waarin werknemers onbedoeld lekte gevoelige informatie via ChatGPT. Omdat ChatGPT gebruikersinvoergegevens bewaart om zijn eigen prestaties te verbeteren, zijn deze waardevolle handelsgeheimen van Samsung nu in het bezit van OpenAI, het bedrijf achter de AI-dienst. Dit baart grote zorgen met betrekking tot de vertrouwelijkheid en veiligheid van de bedrijfseigen informatie van Samsung.

Vanwege dergelijke zorgen over de naleving door ChatGPT van de EU's Algemene Verordening Gegevensbescherming (AVG), die strikte richtlijnen oplegt voor het verzamelen en gebruiken van gegevens, Italiรซ heeft een landelijk verbod opgelegd over het gebruik van ChatGPT.

Snelle vooruitgang in AI en generatieve AI-toepassingen hebben nieuwe kansen geopend voor het versnellen van de groei in business intelligence, producten en operaties. Maar eigenaren van cyberbeveiligingsprogramma's moeten de privacy van gegevens waarborgen in afwachting van de ontwikkeling van wetten.

Openbare engine versus privรฉ-engine

Om de concepten beter te begrijpen, beginnen we met het definiรซren van publieke AI en private AI. Openbare AI verwijst naar openbaar toegankelijke AI-softwaretoepassingen die zijn getraind op datasets, vaak afkomstig van gebruikers of klanten. Een goed voorbeeld van openbare AI is ChatGPT, dat gebruikmaakt van openbaar beschikbare gegevens van internet, waaronder tekstartikelen, afbeeldingen en video's.

Openbare AI kan ook algoritmen omvatten die datasets gebruiken die niet exclusief zijn voor een specifieke gebruiker of organisatie. Bijgevolg moeten klanten van openbare AI zich ervan bewust zijn dat hun gegevens mogelijk niet volledig privรฉ blijven.

Private AI daarentegen omvat het trainen van algoritmen op gegevens die uniek zijn voor een bepaalde gebruiker of organisatie. Als u in dit geval machine learning-systemen gebruikt om een โ€‹โ€‹model te trainen met behulp van een specifieke dataset, zoals facturen of belastingformulieren, blijft dat model exclusief voor uw organisatie. Platformleveranciers gebruiken uw gegevens niet om hun eigen modellen te trainen, dus private AI voorkomt dat uw gegevens worden gebruikt om uw concurrenten te helpen.

Integreer AI in trainingsprogramma's en beleid

Om AI-toepassingen te experimenteren, te ontwikkelen en te integreren in hun producten en diensten met inachtneming van best practices, moeten cyberbeveiligingsmedewerkers het volgende beleid in de praktijk brengen.

Gebruikersbewustzijn en educatie: Informeer gebruikers over de risico's die gepaard gaan met het gebruik van AI en moedig hen aan voorzichtig te zijn bij het verzenden van gevoelige informatie. Bevorder veilige communicatiepraktijken en adviseer gebruikers om de authenticiteit van het AI-systeem te verifiรซren.

  • Gegevensminimalisatie: Geef de AI-engine alleen de minimale hoeveelheid gegevens die nodig is om de taak uit te voeren. Vermijd het delen van onnodige of gevoelige informatie die niet relevant is voor de AI-verwerking.
  • Anonimisering en de-identificatie: Anonimiseer of de-identificeer de gegevens waar mogelijk voordat u deze in de AI-engine invoert. Dit omvat het verwijderen van persoonlijk identificeerbare informatie (PII) of andere gevoelige attributen die niet vereist zijn voor de AI-verwerking.

Praktijken voor veilige gegevensverwerking: Stel strikte beleidsregels en procedures op voor het omgaan met uw gevoelige gegevens. Beperk de toegang tot alleen geautoriseerd personeel en dwing sterke authenticatiemechanismen af โ€‹โ€‹om ongeoorloofde toegang te voorkomen. Train werknemers in best practices voor gegevensprivacy en implementeer registratie- en controlemechanismen om de toegang tot en het gebruik van gegevens bij te houden.

Bewaring en verwijdering: Definieer beleid voor het bewaren van gegevens en gooi de gegevens veilig weg zodra ze niet langer nodig zijn. Voer correct uit mechanismen voor het verwijderen van gegevens, zoals beveiligde verwijdering of cryptografische verwijdering, om ervoor te zorgen dat de gegevens niet meer kunnen worden hersteld nadat ze niet langer nodig zijn.

Juridische en nalevingsoverwegingen: Begrijp de juridische gevolgen van de gegevens die u invoert in de AI-engine. Zorg ervoor dat de manier waarop gebruikers de AI gebruiken, voldoet aan relevante regelgeving, zoals wetten inzake gegevensbescherming of branchespecifieke normen.

Leveranciersbeoordeling: Als u een AI-engine gebruikt die is geleverd door een externe leverancier, voer dan een grondige beoordeling uit van hun beveiligingsmaatregelen. Zorg ervoor dat de leverancier de best practices uit de branche volgt voor gegevensbeveiliging en privacy, en dat ze over passende waarborgen beschikken om uw gegevens te beschermen. ISO- en SOC-attesten bieden bijvoorbeeld waardevolle validaties door derden van de naleving door een leverancier van erkende normen en hun inzet voor informatiebeveiliging.

Formaliseer een AI-beleid voor acceptabel gebruik (AUP): Een AI-beleid voor acceptabel gebruik moet het doel en de doelstellingen van het beleid schetsen, met de nadruk op verantwoord en ethisch gebruik van AI-technologieรซn. Het moet aanvaardbare gebruiksscenario's definiรซren en de reikwijdte en grenzen voor het gebruik van AI specificeren. De AUP moet transparantie, verantwoordingsplicht en verantwoorde besluitvorming bij het gebruik van AI aanmoedigen en een cultuur van ethische AI-praktijken binnen de organisatie bevorderen. Regelmatige beoordelingen en updates zorgen ervoor dat het beleid relevant is voor de zich ontwikkelende AI-technologieรซn en -ethiek.

Conclusies

Door zich aan deze richtlijnen te houden, kunnen programma-eigenaren AI-tools effectief gebruiken, terwijl gevoelige informatie wordt beschermd en ethische en professionele normen worden nageleefd. Het is van cruciaal belang om door AI gegenereerd materiaal te controleren op nauwkeurigheid en tegelijkertijd de ingevoerde gegevens te beschermen die nodig zijn voor het genereren van responsprompts.

Tijdstempel:

Meer van Donkere lezing