ChatGPT: A dolgok biztonságosabbá tétele (Simon Thompson)

ChatGPT: A dolgok biztonságosabbá tétele (Simon Thompson)

ChatGPT: Making things safer (Simon Thompson) PlatoBlockchain Data Intelligence. Vertical Search. Ai.

In ennek a blognak az első része Megvizsgáltam az új és hatékony technológiát, a ChatGPT-t. Ebben a második és egyben utolsó részben azt vizsgálom, hogy milyen bevált gyakorlatokra van szükség ahhoz, hogy használata a lehető legbiztonságosabb legyen.

Teljesen egyértelmű, hogy nem fogjuk visszahelyezni a ChatGPT-t a palackba. Az elkészítéséhez használt technikák jól ismertek, és bár a számításigények mennyisége jelenleg hősiesnek tűnik, a viszonylag közeli jövőben sokkal szélesebb körben elérhető lesz. Még ha a számítási árak nem is tolódnak le radikálisan a közeljövőben, a GPT3.5 létrehozásához szükséges számítási mód már sok állami szereplő és a nem állami szereplők széles köre számára elérhető.

A Google bejelentette a LAMDA technológiáján alapuló „Bard”-ot, amely annyira lenyűgöző, hogy az egyik belső mérnök meg volt győződve arról, hogy lelke van, a Deepmind pedig kifejlesztett egy „Sparrow” nevű chatbotot, amely „egyesek állítása szerint” technikailag jobb a ChatGPT-nél.

A nagy veszélyek valószínűleg nem az olyan kifinomult szupervállalatoktól származnak, mint az Alphabet. A „gyorsan lépni, és megtörni a dolgokat” attitűddel rendelkező kisebb cégek valószínűleg kreatívak és kalandvágyók az alkalmazási ötleteikkel. De nagyon is valós károk lehetségesek nagyon is valós embereknek ezzel a fajta rendszerrel, és ezeket kis, nem szakértő csapatok könnyen és gyorsan megvalósíthatják.

Öt tipp a ChatGPT biztonságosabbá tételéhez

Annak ellenére, hogy sok út vezet a „nem”-hez, és csak egy az „igenhez”, továbbra is sok olyan alkalmazás lesz, amelyet ésszerűnek minősítenek. De ettől nem lesznek biztonságban. A ChatGPT-alapú alkalmazásokba vetett bizalom érdekében a következő lépések végrehajtása is javasolt.

  1. Nem szabad megtévesztésnek lennie azzal kapcsolatban, hogy mi az, amivel a felhasználók interakcióba lépnek. Nem adhat tájékoztatáson alapuló beleegyezést, ha nem kap tájékoztatást. Saleema Amershi és munkatársai [1] kiváló irányelveket tettek közzé az AI-rendszerek interakciójáról. Fontos, hogy ezek struktúrát biztosítanak az interakció figyelembevételéhez a felhasználói interakció teljes életciklusa során. Az irányelvek kitérnek arra, hogyan tegyék világossá a felhasználó számára, hogy mihez viszonyulnak, és hogyan tájékoztassák őket arról, hogy mit várnak el tőlük. Az Amershi útmutatása kiterjed az egész interakcióra, a hibák és a túlórák kezelésére, miközben a rendszer „üzletileg a megszokott módon” válik.
  2. A felhasználóknak lehetőséget kell biztosítani arra, hogy ne lépjenek kapcsolatba a rendszerrel. Valódi lehetőség – például alternatív kapcsolati csatorna.
  3. Minden pályázathoz hatásvizsgálatot kell csatolni. Tegye fel a webhelyre, mint egy robots.txt fájlt, vagy úgy, ahogyan licencet adna a forráskódhoz. A kanadai AIA folyamat modellt kínál az ilyesmire, de néhány alapvető kérdés jó kezdet. Kinek fog fájni, ha rendeltetésszerűen működik? Kinek lesz baja, ha a chatbot elromlik? Meg tudja valaki mondani, hogy a chatbot rosszul működik-e, és meg tudja-e állítani és javítani a helyzetet, ha igen?
  4. Ha a rendszere káros hatással lehet másokra, akkor figyelni és naplózni kell, hogy a rendszer mit csinál és hogyan viselkedik. Ezeket úgy kell karbantartani, hogy szükség esetén lehetővé tegyék a rendszer viselkedésének törvényszéki vizsgálatát.
  5. Ha nem Ön személyesen és közvetlenül felelős a rendszerért, akkor világosan dokumentált irányítási folyamatot kell kidolgozni és fenntartani. Ennek részben le kell írnia, hogy a felhasználók hogyan hívhatnak segítséget, és hogyan panaszkodhatnak a rendszerrel kapcsolatban. Azt is le kell írnia, hogy milyen folyamatoknak kell lenniük a felhasználói szorongások és panaszok kezelésére.

Számos felhasználási esetben nagy érték lehet

A megfelelő vezérlőkkel és folyamatokkal az új nagy nyelvi modellek, mint például a ChatGPT, számos felhasználási esetben nagy értéket képviselnek, jóllehet az alapvető vezérlők és ellenőrzések be vannak iktatva, hogy biztosítsák a felhasználók és a végfelhasználók védelmét a félreértésektől.

  1. Amershi, Saleema. "Irányelvek az emberi és mesterséges intelligencia interakciójához." CHI konferencia az emberi tényezőkről a számítástechnikai rendszerekben. CHI, 2019. 1–13.

Időbélyeg:

Még több Fintextra