Trzy najważniejsze problemy związane z prywatnością danych, przed którymi stoi dziś sztuczna inteligencja – The Daily Hodl

Trzy najważniejsze problemy związane z prywatnością danych, przed którymi stoi dziś sztuczna inteligencja – The Daily Hodl

Post gościa HodlX  Prześlij swój post

 

Sztuczna inteligencja (sztuczna inteligencja) wywołała szaleńcze podekscytowanie zarówno wśród konsumentów, jak i przedsiębiorstw - napędzani żarliwą wiarą, że LLM (duże modele językowe) i narzędzia takie jak ChatGPT zmienią sposób, w jaki uczymy się, pracujemy i żyjemy.

Jednak podobnie jak w początkach Internetu, użytkownicy włączają się do niego, nie zastanawiając się, w jaki sposób wykorzystywane są ich dane osobowe - ai jaki wpływ może to mieć na ich prywatność.

Istnieją już niezliczone przykłady naruszeń danych w przestrzeni AI. W marcu 2023 r. OpenAI tymczasowo przejął ChatGPT nieaktywny po „istotnym” błędzie oznaczającym, że użytkownicy mogli zobaczyć historie rozmów nieznajomych.

Ten sam błąd dotyczył informacji o płatnościach subskrybentów - w tym nazwiska, adresy e-mail i częściowe numery kart kredytowych - były także w domenie publicznej.

We wrześniu 2023 r. przypadkowo wyciekło oszałamiające 38 terabajtów danych firmy Microsoft. przeciekły przez pracownika, a eksperci ds. cyberbezpieczeństwa ostrzegają, że mogłoby to umożliwić atakującym infiltrację modeli sztucznej inteligencji za pomocą złośliwego kodu.

Naukowcom również się to udało manipulować systemów sztucznej inteligencji do ujawniania poufnych zapisów.

W ciągu zaledwie kilku godzin grupie Robust Intelligence udało się pozyskać z oprogramowania Nvidii informacje umożliwiające identyfikację i ominąć zabezpieczenia mające na celu uniemożliwienie omawiania przez system określonych tematów.

We wszystkich tych scenariuszach wyciągnięto wnioski, ale każde naruszenie w mocny sposób ilustruje wyzwania, którym należy stawić czoła, aby sztuczna inteligencja stała się niezawodną i godną zaufania siłą w naszym życiu.

Gemini, chatbot Google, przyznaje nawet, że wszystkie rozmowy są przetwarzane przez weryfikatorów - podkreślając brak przejrzystości w swoim systemie.

„Nie wpisuj niczego, czego nie chciałbyś, aby zostało zrecenzowane lub wykorzystane” – ostrzega ostrzeżenie dla użytkowników.

Sztuczna inteligencja szybko wykracza poza narzędzie, którego uczniowie używają do odrabiania zadań domowych, a turyści korzystają z rekomendacji podczas wycieczki do Rzymu.

Coraz częściej od niego zależy w przypadku drażliwych dyskusji - i karmiliśmy wszystko, od pytań medycznych po harmonogramy pracy.

Z tego powodu ważne jest, aby cofnąć się o krok i zastanowić się nad trzema najważniejszymi problemami związanymi z prywatnością danych, przed którymi stoi dziś sztuczna inteligencja, oraz nad tym, dlaczego są one ważne dla nas wszystkich.

1. Podpowiedzi nie są prywatne

Narzędzia takie jak ChatGPT zapamiętują przeszłe rozmowy, aby móc do nich wrócić później. Chociaż może to poprawić komfort użytkownika i pomóc w szkoleniu LLM, wiąże się to z ryzykiem.

Jeśli system zostanie pomyślnie zhakowany, istnieje realne niebezpieczeństwo ujawnienia podpowiedzi na forum publicznym.

Potencjalnie zawstydzające szczegóły z historii użytkownika mogą wyciekać, a także wrażliwe informacje handlowe, gdy sztuczna inteligencja jest wdrażana do celów służbowych.

Jak widzieliśmy na przykładzie Google, wszystkie zgłoszenia mogą zostać sprawdzone przez zespół programistów.

Samsung podjął działania w tej sprawie w maju 2023 r., kiedy całkowicie zakazał pracownikom korzystania z generatywnych narzędzi AI. To przyszło po pracowniku przesłanych poufny kod źródłowy do ChatGPT.

Gigant technologiczny obawiał się, że informacje te będą trudne do odzyskania i usunięcia, co oznacza, że ​​własność intelektualna (własność intelektualna) może zostać rozpowszechniona wśród ogółu społeczeństwa.

Apple, Verizon i JPMorgan podjęły podobne działania, a raporty sugerują, że Amazon rozpoczął atak po tym, jak odpowiedzi od ChatGPT wykazały podobieństwa do jego własnych danych wewnętrznych.

Jak widać, obawy wykraczają poza to, co by się stało, gdyby doszło do naruszenia bezpieczeństwa danych, ale obejmują perspektywę, że informacje wprowadzone do systemów sztucznej inteligencji mogłyby zostać ponownie wykorzystane i rozpowszechnione wśród szerszego grona odbiorców.

Firmy takie jak OpenAI już są okładzina liczne procesy sądowe w związku z zarzutami, że ich chatboty zostały przeszkolone przy użyciu materiałów chronionych prawem autorskim.

2. Niestandardowe modele sztucznej inteligencji szkolone przez organizacje nie są prywatne

To prowadzi nas zgrabnie do następnego punktu - chociaż osoby fizyczne i korporacje mogą tworzyć własne modele LLM w oparciu o własne źródła danych, nie będą one w pełni prywatne, jeśli będą istnieć w ramach platformy takiej jak ChatGPT.

Ostatecznie nie ma sposobu, aby dowiedzieć się, czy dane wejściowe są wykorzystywane do szkolenia tych ogromnych systemów - lub czy dane osobowe mogą zostać wykorzystane w przyszłych modelach.

Podobnie jak w układance, punkty danych z wielu źródeł można połączyć, tworząc kompleksowy i niepokojąco szczegółowy wgląd w czyjąś tożsamość i pochodzenie.

Główne platformy mogą również nie zapewniać szczegółowych wyjaśnień dotyczących przechowywania i przetwarzania tych danych, powodując brak możliwości rezygnacji z funkcji, z którymi użytkownik czuje się niekomfortowo.

Oprócz reagowania na podpowiedzi użytkownika systemy sztucznej inteligencji w coraz większym stopniu potrafią czytać między wierszami i wnioskować o wszystkim, od lokalizacji danej osoby po jej osobowość.

W przypadku naruszenia danych możliwe są tragiczne konsekwencje. Można zorganizować niezwykle wyrafinowane ataki phishingowe - oraz użytkownicy, dla których celem były informacje, które poufnie wprowadzili do systemu sztucznej inteligencji.

Inne potencjalne scenariusze obejmują wykorzystanie tych danych do przyjęcia czyjejś tożsamości za pośrednictwem aplikacji do otwierania kont bankowych lub fałszywych filmów wideo.

Konsumenci muszą zachować czujność, nawet jeśli sami nie korzystają ze sztucznej inteligencji. Sztuczna inteligencja jest coraz częściej wykorzystywana do zasilania systemów nadzoru i ulepszania technologii rozpoznawania twarzy w miejscach publicznych.

Jeżeli taka infrastruktura nie zostanie utworzona w prawdziwie prywatnym środowisku, wolności obywatelskie i prywatność niezliczonych obywateli mogą zostać naruszone bez ich wiedzy.

3. Dane prywatne służą do szkolenia systemów AI

Istnieją obawy, że główne systemy sztucznej inteligencji zebrały swoją inteligencję, przeglądając niezliczone strony internetowe.

Szacunki sugerują, że do szkolenia ChatGPT użyto 300 miliardów słów - to 570 gigabajtów danych - z książkami i wpisami w Wikipedii wśród zbiorów danych.

Wiadomo również, że algorytmy zależą od stron mediów społecznościowych i komentarzy w Internecie.

W przypadku niektórych z tych źródeł można argumentować, że właściciele tych informacji mieli uzasadnione oczekiwania co do prywatności.

Ale o to chodzi - wiele narzędzi i aplikacji, z którymi mamy do czynienia na co dzień, jest już pod silnym wpływem sztucznej inteligencji - i reagować na nasze zachowania.

Face ID na Twoim iPhonie wykorzystuje sztuczną inteligencję do śledzenia subtelnych zmian w Twoim wyglądzie.

Algorytmy TikTok i Facebooka oparte na sztucznej inteligencji tworzą rekomendacje treści na podstawie klipów i postów, które oglądałeś w przeszłości.

Asystenci głosowi, tacy jak Alexa i Siri, również w dużym stopniu polegają na uczeniu maszynowym.

Istnieje oszałamiająca konstelacja startupów AI, a każdy z nich ma określony cel. Jednak niektóre z nich są bardziej przejrzyste niż inne, jeśli chodzi o sposób gromadzenia, przechowywania i wykorzystywania danych użytkownika.

Jest to szczególnie ważne, ponieważ sztuczna inteligencja ma wpływ na dziedzinę opieki zdrowotnej - od obrazowania medycznego i diagnoz po prowadzenie dokumentacji i farmaceutykę.

Należy wyciągnąć wnioski z przedsiębiorstw internetowych, które w ostatnich latach uwikłały się w skandale dotyczące prywatności.

Flo, aplikacja poświęcona zdrowiu kobiet, była oskarżony przez organy regulacyjne udostępniania intymnych danych o swoich użytkownikach takim firmom jak Facebook i Google w latach 2010-tych.

Gdzie idziemy stąd

W nadchodzących latach sztuczna inteligencja będzie miała niezatarty wpływ na życie nas wszystkich. LLM są coraz lepsze z każdym dniem i wciąż pojawiają się nowe przypadki ich użycia.

Istnieje jednak realne ryzyko, że organom regulacyjnym będzie trudno dotrzymać kroku rozwojowi branży w zawrotnym tempie.

A to oznacza, że ​​konsumenci muszą zacząć zabezpieczać własne dane i monitorować sposób ich wykorzystania.

Decentralizacja może odegrać tu kluczową rolę i zapobiec przedostawaniu się dużych ilości danych w ręce głównych platform.

DePIN (zdecentralizowane sieci infrastruktury fizycznej) mogą zapewnić codziennym użytkownikom pełne korzystanie z zalet sztucznej inteligencji bez naruszania ich prywatności.

Zaszyfrowane podpowiedzi mogą nie tylko zapewniać znacznie bardziej spersonalizowane wyniki, ale chroniące prywatność rozwiązania LLM zapewnią użytkownikom pełną kontrolę nad swoimi danymi przez cały czas - i zabezpieczenie przed jego niewłaściwym wykorzystaniem.


Chris Were jest dyrektorem generalnym Verida, zdecentralizowaną, suwerenną sieć danych, która umożliwia jednostkom kontrolowanie ich tożsamości cyfrowej i danych osobowych. Chris to australijski przedsiębiorca technologiczny, który spędził ponad 20 lat na opracowywaniu innowacyjnych rozwiązań programowych.

 

Sprawdź najnowsze nagłówki w HodlX

Śledź nas na Twitter Facebook Telegram

Zapoznaj się z Najnowsze ogłoszenia branżowe  

Trzy najważniejsze problemy związane z prywatnością danych, przed którymi stoi dziś sztuczna inteligencja – Daily Hodl PlatoBlockchain Data Intelligence. Wyszukiwanie pionowe. AI.

Zastrzeżenie: Opinie wyrażone w Daily Hodl nie są poradą inwestycyjną. Inwestorzy powinni przeprowadzić należytą staranność przed dokonaniem inwestycji o wysokim ryzyku w Bitcoin, kryptowaluty lub zasoby cyfrowe. Informujemy, że Twoje transfery i transakcje odbywają się na własne ryzyko, a wszelkie przegrane, które możesz ponieść, należą do Ciebie. Daily Hodl nie zaleca kupowania ani sprzedawania jakichkolwiek kryptowalut lub aktywów cyfrowych, ani też Daily Hodl nie jest doradcą inwestycyjnym. Należy pamiętać, że The Daily Hodl uczestniczy w marketingu afiliacyjnym.

Wygenerowany obraz: W połowie podróży

Znak czasu:

Więcej z The Daily Hodl