Vulnerabilità della sicurezza informatica dell'intelligenza artificiale affinché gli insegnanti siano consapevoli della data intelligence di PlatoBlockchain. Ricerca verticale. Ai.

Vulnerabilità della sicurezza informatica dell'intelligenza artificiale di cui gli insegnanti devono essere consapevoli

L’intelligenza artificiale può essere uno strumento prezioso nell’istruzione, ma pone anche alcune importanti vulnerabilità della sicurezza informatica di cui gli educatori dovrebbero essere consapevoli. Esistono sempre più modi in cui gli hacker possono sfruttare i punti deboli dell’intelligenza artificiale e aggirare i sistemi di sicurezza dell’intelligenza artificiale. Ecco uno sguardo alle principali vulnerabilità della sicurezza IA in aumento oggi e al modo in cui potrebbero avere un impatto sull’istruzione.

Dati di addestramento dell'IA compromessi

Gli algoritmi di intelligenza artificiale possono essere estremamente utili nel campo dell’istruzione, ma la natura “scatola nera” della maggior parte delle IA pone una grave vulnerabilità in termini di sicurezza informatica. Gli algoritmi vengono addestrati utilizzando serie di dati di addestramento che insegnano all'intelligenza artificiale a comprendere o riconoscere qualcosa. Ad esempio, un’intelligenza artificiale potrebbe essere addestrata a comprendere i problemi di algebra dell’ottavo anno in modo da poter valutare i compiti.

Tuttavia, il modo in cui gli algoritmi di intelligenza artificiale elaborano le informazioni è nascosto in una scatola nera, il che significa che difetti e pregiudizi possono passare inosservati. Un’intelligenza artificiale potrebbe inavvertitamente apprendere qualcosa in modo errato o creare false connessioni dai dati di addestramento. La natura “scatola nera” dell’IA significa anche che i dati di addestramento avvelenati possono passare inosservati.

Gli hacker possono contaminare i dati di addestramento per includere a backdoor nascosta nelle IA logica. Quando l'hacker desidera accedere al sistema in cui verrà utilizzata l'IA, può semplicemente inserire la chiave per la backdoor e l'IA la riconoscerà dai dati di addestramento. Backdoor come questa possono essere molto difficili da rilevare perché gli sviluppatori e gli utenti non possono vedere tutte le connessioni in corso nella scatola nera dell'intelligenza artificiale.

“Il modo in cui gli algoritmi di intelligenza artificiale elaborano le informazioni è nascosto in una scatola nera, il che significa che difetti e pregiudizi possono passare inosservati”. 

Gli hacker si stanno adattando

Creare una backdoor nei dati di addestramento dell’intelligenza artificiale è un processo complesso e dispendioso in termini di tempo, qualcosa di cui solo gli hacker altamente qualificati sarebbero capaci. Sfortunatamente, gli hacker stanno adattando le loro strategie di attacco per aggirare le capacità di caccia alle minacce dell’intelligenza artificiale. In effetti, gli hacker stanno persino creando i propri algoritmi di intelligenza artificiale in grado di superare in astuzia altri algoritmi.

Ad esempio, gli hacker hanno sviluppato IA in grado di farlo crackare autonomamente le password per aggirare i sistemi di gestione degli accessi. Ancora peggio, gli hacker utilizzano l’intelligenza artificiale per rendere i loro ransomware e malware abbastanza intelligenti da superare i protocolli di sicurezza basati sull’intelligenza artificiale.

Questa è una seria minaccia per l’istruzione perché le scuole hanno necessariamente bisogno di raccogliere grandi quantità di informazioni personali su studenti e famiglie. I dati delle scuole sono un obiettivo molto attraente per gli hacker, che sanno che comprometterli causerebbe il panico, portando potenzialmente a ingenti risarcimenti di ransomware da parte delle vittime.

Con i sistemi di sicurezza dell’intelligenza artificiale a rischio, gli insegnanti potrebbero essere preoccupati su cosa possono fare per difendere i propri studenti. Ci sono soluzioni, però. Ad esempio, i sistemi di intelligenza artificiale basati sul cloud potrebbero essere più sicuri di quelli basati su data center convenzionali. Inoltre, vengono creati sistemi di protezione dei dati intelligenti per il cloud specifico per i sistemi nativi del cloud, può fornire un ulteriore livello di sicurezza per i dati delle scuole in caso di attacco informatico basato sull'intelligenza artificiale.

Deepfake e riconoscimento errato delle immagini

Oltre alle backdoor, gli hacker possono anche sfruttare difetti involontari negli algoritmi di intelligenza artificiale. Ad esempio, un hacker potrebbe manomettere le foto per indurre un’intelligenza artificiale a riconoscere erroneamente un’immagine.

La tecnologia Deepfake può essere utilizzata anche per mascherare file video, foto o audio come qualcosa che non sono. Questo potrebbe essere utilizzato, ad esempio, per creare un video fraudolento di un insegnante o di un amministratore. I deepfake possono consentire agli hacker di entrare in sistemi che si basano sul riconoscimento di audio o immagini per il controllo degli accessi.

Gli hacker possono sfruttare l’intelligenza artificiale per creare deepfake altamente realistici che poi diventano la modalità di attacco. Ad esempio, un programma antifrode del 2021 utilizzato deepfake IA rubare 35 milioni di dollari da una banca di Hong Kong.

Gli hacker possono sfruttare l'intelligenza artificiale allo stesso modo per creare deepfake delle voci di genitori, insegnanti o amministratori. Lanciano l'attacco chiamando qualcuno al telefono e ingannandolo con un deepfake vocale. Questo potrebbe essere utilizzato per rubare denaro o informazioni personali da scuole, studenti, insegnanti e famiglie.

"I dati delle scuole sono un obiettivo molto attraente per gli hacker, che sanno che comprometterli causerebbe il panico, portando potenzialmente a ingenti ricompense di ransomware da parte delle vittime." 

Affidamento all’intelligenza artificiale per test e tutoraggio

L'intelligenza artificiale è ottima per automatizzare vari aspetti dell'istruzione e può persino migliorare la qualità dell'istruzione degli studenti. Ad esempio, il popolare sito web di tutoraggio linguistico Duolingo utilizza l'intelligenza artificiale con apprendimento automatico per aiutare gli studenti ad apprendere al proprio ritmo. Molte altre scuole e risorse educative utilizzano oggi una tecnologia simile. Questo è noto come apprendimento adattivo dell’intelligenza artificialee aiuta anche con attività essenziali come la valutazione dei test.

Sfortunatamente, questa dipendenza dall’intelligenza artificiale è una vulnerabilità della sicurezza informatica. Gli hacker tendono a prendere di mira i sistemi cruciali per il funzionamento dei sistemi chiave. Pertanto, se gli insegnanti si affidano a determinati strumenti di tutoraggio basati sull’intelligenza artificiale per consentire agli studenti di completare con successo i corsi, tale dipendenza dall’intelligenza artificiale può essere sfruttata da un hacker. Potrebbero lanciare un attacco ransomware sugli algoritmi di intelligenza artificiale fondamentali per l’istruzione o forse addirittura manipolare l’intelligenza artificiale stessa.

Questa particolare vulnerabilità è una combinazione di molte delle minacce sopra menzionate. Gli hacker potrebbero creare una backdoor in un’intelligenza artificiale che consenta loro di manomettere l’algoritmo in modo che valuti in modo errato o insegni agli studenti informazioni errate.

“Se gli insegnanti si affidano a determinati strumenti di tutoraggio basati sull’intelligenza artificiale per consentire agli studenti di completare con successo i corsi, tale dipendenza dall’intelligenza artificiale può essere sfruttata da un hacker”. 

Essere consapevoli delle minacce informatiche nel settore dell'istruzione

Non c’è dubbio che l’intelligenza artificiale possa essere uno strumento di grande valore per gli educatori. Tuttavia, l’utilizzo dell’intelligenza artificiale richiede cautela e un approccio proattivo alla sicurezza informatica per proteggere le vulnerabilità dell’intelligenza artificiale dallo sfruttamento degli hacker.

Mentre l’intelligenza artificiale diventa onnipresente nell’istruzione e nella vita quotidiana, gli hacker stanno sviluppando nuovi tipi di attacchi informatici progettati per contrastare i sistemi di sicurezza intelligenti. Rimanendo consapevoli di queste minacce informatiche emergenti, gli insegnanti possono agire per proteggere i propri sistemi e i propri studenti.

Inoltre, leggi 5 modi in cui la robotica ti aiuterà a ottenere più affari

Timestamp:

Di più da Tecnologia AIOT