GuardRail OSS, progetto open source, fornisce protezioni per lo sviluppo responsabile dell'intelligenza artificiale

GuardRail OSS, progetto open source, fornisce protezioni per lo sviluppo responsabile dell'intelligenza artificiale

Veterani del settore sviluppano un framework per aiutare le aziende a creare soluzioni di intelligenza artificiale etiche

GuardRail OSS, progetto open source, fornisce protezioni per lo sviluppo responsabile dell'intelligenza artificiale PlatoBlockchain Data Intelligence. Ricerca verticale. Ai.

GuardRail OSS, progetto open source, fornisce protezioni per lo sviluppo responsabile dell'intelligenza artificiale PlatoBlockchain Data Intelligence. Ricerca verticale. Ai.
GuardRail OSS, progetto open source, fornisce protezioni per lo sviluppo responsabile dell'intelligenza artificiale PlatoBlockchain Data Intelligence. Ricerca verticale. Ai.

Il progetto open source fornisce protezioni per lo sviluppo responsabile dell'intelligenza artificiale

SAN FRANCISCO–(BUSINESS WIRE)–Oggi un gruppo di veterani del software aziendale ha lanciato GuardRail OSS, un progetto open source che fornisce pratici guardrail per garantire lo sviluppo e l'implementazione responsabile dell'intelligenza artificiale (AI). Creato da esperti di tecnologia tra cui l'imprenditore seriale Reuven Cohen, il CEO di Peripety Labs Mark Hinkle e il veterano di ServiceNow e attuale CEO di Opaque Systems Aaron Fulkerson, GuardRail OSS offre un framework basato su API per l'analisi avanzata dei dati, la mitigazione dei pregiudizi, l'analisi del sentiment, la classificazione dei contenuti e supervisione adattata alle esigenze specifiche dell’IA di un’organizzazione.

Poiché le capacità dell’intelligenza artificiale sono progredite rapidamente, è cresciuta anche la richiesta di responsabilità e supervisione per mitigare i rischi. GuardRail OSS fornisce alle aziende che desiderano sfruttare l'intelligenza artificiale gli strumenti per garantire che i loro sistemi agiscano in modo responsabile ed etico analizzando gli input di dati, monitorando gli output e guidando i contributi dell'intelligenza artificiale. La sua disponibilità open source promuove la trasparenza consentendo al tempo stesso la personalizzazione per diverse applicazioni di settore nel mondo accademico, sanitario, software aziendale e altro ancora.

“L’intelligenza artificiale offre un’importante opportunità per rimodellare sia il panorama aziendale che quello sociale, e il suo potenziale si realizza pienamente solo se ancorato a uno sviluppo responsabile”, ha osservato Reuven Cohen, lo sviluppatore di intelligenza artificiale dietro GuardRail OSS. “Con questo quadro, le imprese ottengono non solo strumenti di supervisione e analisi, ma anche i mezzi per integrare funzionalità avanzate come l’intelligenza emotiva e il processo decisionale etico nei loro sistemi di intelligenza artificiale. Si tratta di migliorare le capacità dell’IA garantendo al contempo trasparenza e responsabilità, stabilendo un nuovo punto di riferimento per l’evoluzione progressiva e responsabile dell’IA”.

Supportato da Opaque Systems e da un team di veterani del settore, GuardRail OSS è posizionato per diventare una soluzione ampiamente utilizzata per instillare responsabilità nello sviluppo dell'intelligenza artificiale. Man mano che l’intelligenza artificiale prolifera in tutti i settori, barriere e controlli appositamente costruiti garantiranno la sicurezza, ridurranno i pregiudizi e svilupperanno la fiducia nei sistemi di intelligenza artificiale. Essendo una soluzione open source disponibile gratuitamente, GuardRail OSS dà l'esempio fornendo strumenti e strutture pratici per aprire la strada al progresso responsabile dell'intelligenza artificiale.

“Mentre le aziende passano dalle fasi pilota dei modelli linguistici di grandi dimensioni alla produzione su vasta scala, stiamo assistendo a un'impennata della domanda aziendale per un gateway dati robusto, sicuro e adattabile. Un simile gateway non è solo cruciale per garantire la privacy e l’etica nell’intelligenza artificiale, ma è anche fondamentale per sfruttare le ricche informazioni latenti nell’estrazione dei dati, che, se analizzate con responsabilità, possono sbloccare un’intelligenza senza precedenti”, ha affermato Raluca Ada Popa, una rinomata intelligenza artificiale. ed esperto di sicurezza, professore associato alla UC Berkeley, co-fondatore degli innovativi RISELab e Skylab alla UC Berkeley e co-fondatore di Opaque Systems e Preveil. “In questo panorama, l’avvento di GuardRail OSS come struttura sicura per l’implementazione dell’intelligenza artificiale non è solo tempestivo ma fondamentale. È uno strumento che risponde alla crescente domanda del settore di meccanismi che garantiscano la privacy dei dati e l’uso etico dell’intelligenza artificiale”.

A proposito di Reuven "rUv" Cohen

Reuven Cohen è un esperto esperto di tecnologia con un profondo impatto su innovazioni rivoluzionarie. La sua esperienza spazia dal cloud computing, all'intelligenza artificiale e al web3. Contribuisce ai progressi dell'intelligenza artificiale come alpha/beta tester per OpenAI. Reuven fornisce consulenza ai governi, ha co-fondato un'iniziativa cloud globale di base e guida iniziative in alcuni dei più grandi sistemi di intelligenza artificiale aziendale, tra cui una recente implementazione di intelligenza artificiale generativa da 400,000 dipendenti e 1.4 miliardi di dollari. Puoi seguirlo su LinkedIn (https://www.linkedin.com/in/reuvencohen/).

Informazioni sui sistemi opachi

Sistemi opachi (https://opaque.co) è leader nella tecnologia della privacy per dati e intelligenza artificiale, pioniere dell'informatica riservata per l'analisi e l'intelligenza artificiale presso il RISElab della UC Berkeley. Opaque è utilizzato da organizzazioni tra cui Ant Group, IBM, Scotiabank ed Ericsson. Opaque Systems ha recentemente lanciato Opaque Prompts (https://opaqueprompts.opaque.co/) come servizio ma ha rilasciato il codice sotto licenza open source su Github (https://github.com/opaque-systems/opaqueprompts-python).

Informazioni su Peripety Labs​​

Peripety Labs (https://peripety.com) è una società di consulenza sull'intelligenza artificiale fondata da Mark Hinkle. Mark è da molto tempo un sostenitore dell'open source e un dirigente del software aziendale. È stato committente della Apache Software Foundation per Apache CloudStack e redattore capo di LinuxWorld e Enterprise Open Source Magazine. È stato dirigente presso la Linux Foundation, la Node.js Foundation e il capo fondatore dell'Open Source Business Office di Citrix. Pubblica una newsletter settimanale sull'intelligenza artificiale, The Artificial Intelligence Enterprise (https://www.theenterprise.io).

Contatti

Mark Hinkle

press@peripety.com
919.228.8049

Laboratori di peripezia

www.peripety.com

Timestamp:

Di più da TheNewsCripto