Bill Gates: Az AI chatbotok 18 hónap alatt megtaníthatják a gyerekeket olvasni

Bill Gates: Az AI chatbotok 18 hónap alatt megtaníthatják a gyerekeket olvasni

Bill Gates: AI Chatbots Could Teach Children to Read in 18 Months PlatoBlockchain Data Intelligence. Vertical Search. Ai.

Wayne Chang műszaki vállalkozó azt állítja, hogy kifejlesztett egy mesterséges intelligencia eszközt, az LLM Shieldet, amely megakadályozza a chatbotokat és a nagy nyelvi modelleket (LLM), mint pl. ChatGPT attól, hogy elvegye a cég titkait. Az AI-eszközök használata az utóbbi időben megnövekedett, ami aggodalmát fejezi ki amiatt, hogy a vállalatok ki vannak téve adatszivárogtatásnak és pereknek.

Szerint a jelentést Cyberhaven, becslések szerint a dolgozók 2.3%-a bizalmas vállalati információkat helyezett el a ChatGPT-be, míg a chatbotba beillesztett adatok 11%-a bizalmas.

Ennek eredményeként számos vállalkozás, köztük a JP Morgan Chase & Co állítólag letiltotta az alkalmazottak hozzáférését az eszközhöz.

Lásd még: Visszatérnek a Metaverse irodák?

Az LLM Shield célja, hogy megvédje a vállalkozásokat és a kormányokat attól, hogy érzékeny adatokat töltsenek fel olyan mesterséges intelligencia által vezérelt eszközökbe, mint a ChatGPT és Dalnok.

Chang elmondta a Fox Business-nek, hogy amikor az OpenAI ChatGPT-jét novemberben piacra dobták, látta, milyen erős lesz, és hogy „nagy-nagy kockázatokkal jár”.

„A dolgok elég gyorsan eszkalálódni fognak – ez egyben pozitív és negatív is” – mondta.

„Itt az a célom, hogy megbizonyosodjunk arról, hogy a mesterséges intelligencia pozitív irányba terelhető, és amennyire csak lehetséges, elkerüljük a hátrányokat.”

Technológia a technológia irányításához

A csak múlt héten megjelent LLM Shield minden alkalommal figyelmezteti a szervezeteket, amikor érzékeny információk feltöltésére tesznek kísérletet. A Fox Business szerint az adminisztrátorok korlátokat állíthatnak be arra vonatkozóan, hogy a vállalat milyen típusú adatokat szeretne védeni.

Az ilyen információk feltöltésére tett kísérletek arra kérik az LLM Shieldet, hogy figyelmeztesse a felhasználókat, hogy érzékeny adatokat készülnek küldeni, és elhomályosítja a részleteket, hogy a tartalom hasznos legyen, de ne legyen olvasható az emberek számára.

Az LLM Shield várhatóan továbbra is okosabb lesz, csakúgy, mint az AI-eszközök, amelyek hatáskörét korlátozni kell. A levélszemétszűrőhöz hasonlóan frissül, így amint egyre több bot kerül a piacra, automatikusan frissíti magát a védelem megerősítése érdekében.

Chang szerint a tervek között szerepel egy személyes verzió kiadása, amelyet az egyének letölthetnek otthoni használatra.

Az adatszivárgás aggasztja a cégeket

Ebben az évben fellendült a mesterséges intelligencia-eszközök használata a vállalkozások körében, és valószínűleg 2023-ra úgy tekintünk vissza, mint arra az évre, amikor az AI-forradalom komolyan elkezdődött.

Ezeknek az eszközöknek a beáramlása azonban aggodalmakat is felvetett, hogy a dolgozók szándékosan vagy véletlenül érzékeny információkat szivárogtathatnak ki az AI-alapú eszközökbe, például a ChatGPT-be.

A kockázat már megvan. Samsung a közelmúltban egy sor adatszivárgást tapasztaltak, amikor az alkalmazottak állítólag egy forráskódot illesztettek be új botokba, ami potenciálisan védett információkat fedhet fel.

Egyre inkább a munkaadók kezd ideges lenni arról, hogy munkatársaik hogyan használhatják az AI-eszközöket a munkahelyükön. Egyes vállalkozások már betiltották a ChatGPT munkahelyi használatát, bár az alkalmazottak még mindig kikerülik a korlátozásokat.

Egy kiszivárgott feljegyzésben Walmart figyelmeztette az alkalmazottakat, hogy ne osszanak meg bizalmas információkat a ChatGPT-vel. A csoport azt mondta, hogy korábban blokkolta a chatbotot, olyan tevékenység miatt, amely kockázatot jelentett vállalatunk számára.

Az Amazon is figyelmeztette alkalmazottait ugyanerre a kihívásra. Vállalati ügyvédje elmondta az alkalmazottainak, hogy a cég már látott olyan ChatGPT-válaszokat, amelyek hasonlóak voltak belső Amazon adatokat.

Alattomos alkalmazottak

Mint azokban az országokban, ahol a ChatGPT tilos, de továbbra is használatos – Kína és például Afrika egyes részein – az alkalmazottakat nem tántorították el attól, hogy szervezeteikben használják az AI-alapú eszközt.

A Fishbowl felmérés A februárban közzétett adatokból kiderült, hogy az alkalmazottak közel 70%-a főnöke tudta nélkül használja a ChatGPT-t munkahelyén.

A Cyberhaven vezérigazgatója, Howard Ting elmondta az Axiosnak, hogy az alkalmazottak mindig megtalálták a módját, hogy kikerüljék a chatbotokhoz való hozzáférést blokkoló vállalati hálózati tiltásokat.

Azt mondta, hogy egyes vállalatok úgy vélték, hogy az alkalmazottak nem fértek hozzá a chatbothoz, mielőtt a cége ennek ellenkezőjét mondta volna nekik.

„A felhasználók proxyt használhatnak, hogy sok ilyen hálózati alapú biztonsági eszközt megkerüljenek” – tárta fel.

Időbélyeg:

Még több MetaNews