La FTC chiede al pubblico se gradirebbe la protezione contro i falsi dell'IA

La FTC chiede al pubblico se gradirebbe la protezione contro i falsi dell'IA

La FTC chiede al pubblico se vorrebbe che l'IA falsificasse la protezione PlatoBlockchain Data Intelligence. Ricerca verticale. Ai.

La FTC si sta muovendo per rendere illegale non solo l'imitazione fraudolenta dell'IA di esponenti del governo e degli uomini d'affari, ma sta anche chiedendo al pubblico americano se anche loro desiderano una certa protezione. 

Il watchdog americano dei consumatori ha annunciato lo stesso giovedì, insieme all'introduzione di una norma finale che darà alla Commissione la possibilità di intentare direttamente azioni legali federali contro i truffatori di imitazione di intelligenza artificiale che prendono di mira aziende e agenzie governative. Le modifiche consentiranno inoltre all’agenzia di prendere di mira più rapidamente gli autori del codice utilizzato in tali truffe.

La proposta iniziale non copre però il furto d'identità di privati. Quindi la FTC sta rilasciando questo [PDF] avviso supplementare in cui si chiede al pubblico di commentare se anche questi ultimi debbano essere coperti dalle nuove norme.

"I truffatori utilizzano strumenti di intelligenza artificiale per impersonare individui con una precisione inquietante e su una scala molto più ampia", ha affermato la presidente della FTC Lina Khan. “Con la clonazione vocale e altre truffe basate sull’intelligenza artificiale in aumento, proteggere gli americani dalle frodi degli imitatori è più importante che mai”. 

Oltre a rendere semplicemente illegale impersonare un altro individuo per commettere frodi, la proposta include anche una disposizione per ritenere le aziende responsabili dell’uso improprio della tecnologia che creano.  

La disposizione sui cosiddetti “mezzi e strumenti” nella proposta darebbe alla FTC la possibilità di ritenere responsabili le aziende che creano tecnologie di intelligenza artificiale che potrebbero essere utilizzate per impersonare le persone se “avessero motivo di sapere che i beni e i servizi forniti saranno utilizzati a scopo di imitazione", ha affermato la FTC.

Nonostante una disposizione che riterrà gli sviluppatori responsabili per l’uso improprio della loro tecnologia, non è chiaro chi o in che misura le organizzazioni potrebbero essere perseguite. 

Secondo la proposta, è illegale per un truffatore chiamare o inviare messaggi a una persona fingendosi un altro individuo, inviare posta fisica rappresentando in modo fuorviante l'affiliazione, creando un sito Web, un profilo di social media o un indirizzo e-mail spacciandosi per una persona o inserendo annunci che si spacciano per persona o altro. i loro affiliati.

Non è chiaro se le organizzazioni che trasmettono messaggi fraudolenti possano essere ritenute responsabili insieme alle aziende che facilitano la creazione di voci e video IA. Abbiamo chiesto chiarimenti alla FTC, ma non abbiamo ricevuto risposta.

La FCC ha fatto le proprie mosse per combattere la imitazione dell'IA all'inizio di questo mese, decidendo che lo era illegale utilizzare voci generate dall'intelligenza artificiale nelle chiamate robotizzate. A differenza di questa norma FTC recentemente proposta, la FCC ha semplicemente chiarito che le leggi esistenti sulla protezione dei consumatori telefonici coprivano l’uso delle voci generate dall’intelligenza artificiale. ®

Timestamp:

Di più da Il registro