Rosną naciski na bezpieczeństwo związane z obietnicami i zagrożeniami AI

Rosną naciski na bezpieczeństwo związane z obietnicami i zagrożeniami AI

Rosną presje na bezpieczeństwo wokół obietnic AI i zagrożeń PlatoBlockchain Data Intelligence. Wyszukiwanie pionowe. AI.

BLACK HAT USA – Las Vegas – piątek, 11 sierpnia – Sztuczna inteligencja (AI) nie jest nowicjuszem w świecie technologii, ale ponieważ ChatGPT i podobne oferty wypychają ją poza środowiska laboratoryjne i przypadki użycia, takie jak Siri, Maria „Azeria” Markstedter, założycielka i dyrektor generalny Azeria Labs, powiedziała, że ​​praktycy bezpieczeństwa muszą bądź czujny na to, jak jego ewolucja wpłynie na ich codzienną rzeczywistość.

Żartobliwie stwierdziła, że ​​sztuczna inteligencja jest „teraz w bezpiecznych rękach dużych firm technologicznych ścigających się z czasem, aby konkurować o bezpieczeństwo przed eliminacją” w następstwie OpenAI wypuszcza swój model ChatGPT podczas gdy inne firmy się wstrzymały. "Z powstanie ChatGPT, podejście Google do czasu pokoju dobiegło końca i wszyscy wskoczyli ”- powiedziała, przemawiając na głównej scenie w Black Hat USA w tym tygodniu.

Widząc, dokąd idą pieniądze

Firmy inwestują miliony dolarów w sztuczną inteligencję, ale za każdym razem, gdy świat przechodzi na nowy rodzaj technologii, „korporacyjny wyścig zbrojeń nie jest napędzany troską o bezpieczeństwo lub ochronę, ponieważ bezpieczeństwo spowalnia postęp”.

Powiedziała, że ​​przypadki użycia zintegrować sztuczną inteligencję ewoluują i zaczynają zarabiać dużo pieniędzy, zwłaszcza ci, którzy dominują na rynku. Potrzebne jest jednak „twórcy, aby go złamaći naprawić to, a ostatecznie zapobiec eksplozji technologii w nadchodzących przypadkach użycia”.

Dodała, że ​​firmy mogą doświadczać odrobiny irracjonalnego entuzjazmu. „Każda firma chce być teraz próbną maszyną biznesową AI, a sposób, w jaki nasze firmy zamierzają wykorzystać te narzędzia do integracji AI, będzie miał znaczący wpływ na nasz model zagrożeń” – powiedziała. Jednak szybkie przyjęcie sztucznej inteligencji oznacza, że ​​jej wpływ na cały model cyberzagrożeń pozostaje nieznany.

Wzrost zagrożeń ChatGPT

Przyznając to ChatGPT było „dość trudno uciec w ciągu ostatnich dziewięciu miesięcy”, powiedział Markstedter, że gwałtowny wzrost liczby użytkowników doprowadził do tego, że niektóre firmy ograniczyły do ​​niego dostęp. Powiedziała, że ​​przedsiębiorstwa były sceptyczne, ponieważ OpenAI to czarna skrzynka, a wszystko, co podasz do ChatGPT, będzie częścią zestawu danych OpenAI.

Powiedziała: „Firmy nie chcą ujawniać swoich poufnych danych zewnętrznemu dostawcy, więc zaczęły zakaz pracowników od używania ChatGPT do pracy, ale każda firma nadal chce, a nawet jest pod presją, aby rozszerzać swoje produkty i usługi dla pracowników za pomocą sztucznej inteligencji; po prostu nie ufają wrażliwym danym … zewnętrznym dostawcom, którzy mogą stanowić część zestawu danych”.

Jednak intensywne skupienie się i szybkie tempo rozwoju i integracji OpenAI zmuszą praktyków bezpieczeństwa do szybkiej ewolucji.

„Tak więc sposób, w jaki nasze organizacje będą wykorzystywać te rzeczy, zmienia się dość szybko: od czegoś, co sprawdzasz w przeglądarce, do czegoś, co firmy integrują z własną infrastrukturą, do czegoś, co wkrótce będzie natywne dla naszego systemu operacyjnego i urządzenia mobilnego ," powiedziała.

Szansa dla przemysłu

Markstedter powiedział, że największym problemem dla sztucznej inteligencji i bezpieczeństwa cybernetycznego jest to, że nie mamy wystarczającej liczby osób z umiejętności i wiedza ocenić te systemy i stworzyć potrzebne nam poręcze. „Tak więc z tych małych wyzwań wyłaniają się już nowe smaki pracy” – powiedziała.

Podsumowując, Markstedter zwrócił uwagę na cztery wnioski: po pierwsze, że systemy sztucznej inteligencji oraz ich przypadki użycia i możliwości ewoluują; po drugie, że musimy poważnie potraktować możliwość, że autonomiczni agenci sztucznej inteligencji staną się rzeczywistością w naszym przedsiębiorstwie; po trzecie, musimy przemyśleć nasze koncepcje dotyczące tożsamości i aplikacji; i po czwarte, musimy przemyśleć nasze koncepcje dotyczące bezpieczeństwa danych.

„Musimy więc poznać samą technologię, która zmienia nasze systemy i nasz model zagrożeń, aby rozwiązać te pojawiające się problemy, a zmiany technologiczne nie są dla nas nowością” — powiedziała. „Nie mamy instrukcji, które mówiłyby nam, jak rozwiązać nasze poprzednie problemy. Wszyscy jesteśmy samoukami w taki czy inny sposób, a teraz nasza branża przyciąga kreatywne umysły całym nastawieniem. Dzięki temu wiemy, jak badać nowe systemy i znajdować kreatywne sposoby ich łamania”.

Na zakończenie stwierdziła, że ​​jest to nasza szansa, aby odkryć siebie na nowo, naszą postawę bezpieczeństwa i naszą obronę. „Aby sprostać kolejnym zagrożeniom związanym z bezpieczeństwem, musimy zjednoczyć się jako społeczność i wspierać badania w tych obszarach” – powiedziała.

Znak czasu:

Więcej z Mroczne czytanie