ChatGPT: Zwiększanie bezpieczeństwa (Simon Thompson)

ChatGPT: Zwiększanie bezpieczeństwa (Simon Thompson)

ChatGPT: Zwiększanie bezpieczeństwa (Simon Thompson) PlatoBlockchain Data Intelligence. Wyszukiwanie pionowe. AI.

In część pierwsza tego bloga Zbadałem nową i potężną technologię, jaką jest ChatGPT. W tej drugiej i ostatniej części zbadam, jakie najlepsze praktyki są wymagane, aby korzystanie z niego było jak najbardziej bezpieczne.

Jest całkiem jasne, że nie zamierzamy wkładać ChatGPT z powrotem do butelki. Techniki użyte do jego stworzenia są dobrze znane i chociaż ilość wymaganych mocy obliczeniowych wydaje się teraz heroiczna, w stosunkowo niedalekiej przyszłości będzie znacznie szerzej dostępna. Nawet jeśli ceny mocy obliczeniowej nie spadną radykalnie w najbliższej przyszłości, rodzaj mocy obliczeniowej wymaganej do stworzenia GPT3.5 jest już dostępny dla wielu podmiotów państwowych i szerokiego grona podmiotów niepaństwowych.

Google ogłosił „Bard” w oparciu o swoją technologię LAMDA, która jest tak przekonująca, że ​​jeden z inżynierów wewnętrznych przekonał się, że ma duszę, a Deepmind opracował chatbota o nazwie „Sparrow”, który „niektórzy twierdzą”, że jest technicznie lepszy od ChatGPT.

Wielkie niebezpieczeństwa raczej nie będą pochodzić od wyrafinowanych super firm, takich jak Alphabet. Mniejsze firmy z nastawieniem „działaj szybko i psuj rzeczy” prawdopodobnie będą kreatywne i śmiałe w swoich pomysłach na zastosowania. Ale przy tego rodzaju systemie możliwe są bardzo realne szkody wyrządzone bardzo prawdziwym ludziom, a małe zespoły niebędące ekspertami mogą je łatwo i szybko wdrożyć.

Pięć najważniejszych wskazówek, dzięki którym ChatGPT będzie bezpieczniejszy

Choć dróg do „nie” jest wiele, a do „tak” tylko jedna, to i tak znajdzie się wiele wniosków, które zostaną zakwalifikowane jako rozsądne. Ale to nie zapewni im bezpieczeństwa. Aby mieć zaufanie do aplikacji obsługiwanej przez ChatGPT, zaleca się również wykonanie następujących kroków.

  1. Nie powinno być żadnych złudzeń co do tego, z czym użytkownicy wchodzą w interakcję. Nie możesz wyrazić świadomej zgody, jeśli nie jesteś poinformowany. Saleema Amershi i wsp. [1] opublikowali doskonałe wytyczne dotyczące interakcji z systemami AI. Co ważne, zapewniają one strukturę do rozważenia interakcji w całym cyklu życia interakcji użytkownika. Wytyczne dotyczą tego, jak wyjaśnić użytkownikowi, z czym wchodzi w interakcję i jak poinstruować go, czego się od niego oczekuje. Wskazówki Amershi rozciągają się na całą interakcję, zarządzanie niepowodzeniami i nadgodzinami, gdy system staje się „normalnym biznesem”.
  2. Użytkownicy powinni mieć możliwość rezygnacji z interakcji z systemem. Realna opcja – na przykład alternatywny kanał kontaktu.
  3. Do każdego wniosku powinna być dołączona ocena skutków. Umieść go na stronie internetowej tak samo, jak plik robots.txt lub dodając licencję do kodu źródłowego. Kanadyjski proces AIA oferuje model tego rodzaju rzeczy, ale kilka podstawowych pytań to dobry początek. Komu zaszkodzi, jeśli będzie działać zgodnie z przeznaczeniem? Kto ucierpi, jeśli chatbot się nie powiedzie? Czy ktoś może stwierdzić, czy chatbot działa źle, czy może go zatrzymać i naprawić sytuację, jeśli tak jest?
  4. Jeśli twój system może mieć niekorzystny wpływ na inne osoby, należy monitorować i rejestrować to, co robi system i jak się zachowuje. Powinny one być utrzymywane w taki sposób, aby w razie potrzeby umożliwić kryminalistyczne badanie zachowania systemu.
  5. Jeśli nie jesteś osobiście i bezpośrednio odpowiedzialny za system, należy opracować i utrzymywać jasno udokumentowany proces zarządzania. Częścią tego powinno być opisanie, w jaki sposób użytkownicy mogą wezwać pomoc i jak mogą złożyć skargę na system. Powinien również opisywać, jakie powinny być procesy związane z rozwiązywaniem problemów i skarg użytkowników.

Potencjał dużej wartości w wielu przypadkach użycia

Dzięki odpowiednim kontrolom i procesom, nowe duże modele językowe, takie jak ChatGPT, zapewnią wielką wartość w wielu przypadkach użycia, aczkolwiek z podstawowymi kontrolami i kontrolami, aby zapewnić użytkownikom i użytkownikom końcowym ochronę przed wszelkimi nieporozumieniami.

  1. Amershi, Saleema. „Wytyczne dotyczące interakcji człowiek-AI”. Konferencja CHI na temat czynnika ludzkiego w systemach komputerowych. CHI, 2019. 1–13.

Znak czasu:

Więcej z Fintextra