Możliwości cyberbezpieczeństwa armii amerykańskiej w celu wzmocnienia OpenAI

Możliwości cyberbezpieczeństwa amerykańskiej armii pozwolą na wzmocnienie OpenAI

Zdolności cyberbezpieczeństwa amerykańskiej armii dzięki OpenAI usprawnią PlatoBlockchain Data Intelligence. Wyszukiwanie pionowe. AI.

OpenAI rozwija możliwości cyberbezpieczeństwa oparte na sztucznej inteligencji dla amerykańskiej armii i wrzuca na wyższy bieg prace związane z bezpieczeństwem wyborów, powiedzieli w tym tygodniu dyrektorzy laboratorium na Światowym Forum Ekonomicznym (WEF) w Davos.

Opinia publiczna na temat współpracy z siłami zbrojnymi pojawia się kilka dni po: zmiany w Język polityki OpenAI, który wcześniej zabraniał używania jej generatywnych modeli sztucznej inteligencji do zastosowań „wojskowych i wojennych”, a także „generowania złośliwego oprogramowania” za pomocą swojej technologii. Ograniczenia te zniknęły już z drobnego druku twórcy ChatGPT. To powiedziawszy, super laboratorium podkreśliło, że jego technologia w dalszym ciągu nie powinna być wykorzystywana do przemocy, niszczenia ani szpiegostwa komunikacyjnego.

„Nasza polityka nie pozwala na wykorzystywanie naszych narzędzi do wyrządzania krzywdy ludziom, opracowywania broni, nadzoru komunikacyjnego, ranienia innych lub niszczenia mienia” – powiedział rzecznik OpenAI Rejestr dzisiaj.

„Istnieją jednak przypadki użycia w kontekście bezpieczeństwa narodowego, które są zgodne z naszą misją.

„Współpracujemy już z DARPA, aby pobudzić tworzenie nowych narzędzi cyberbezpieczeństwa w celu zabezpieczenia oprogramowania typu open source, od którego zależy infrastruktura krytyczna i przemysł. Nie było jasne, czy te korzystne przypadki użycia byłyby dozwolone w ramach „wojskowych” w naszych poprzednich zasadach. Dlatego celem naszej aktualizacji zasad jest zapewnienie przejrzystości i możliwości prowadzenia takich dyskusji”. 

We wtorek podczas ok wywiad podczas spotkania WEF dla przywódców świata wiceprezes ds. spraw globalnych OpenAI Anna Makanju powiedziała, że ​​jej partnerstwo z Pentagonem obejmuje tworzenie oprogramowania zapewniającego cyberbezpieczeństwo typu open source. OpenAI rozpoczyna także rozmowy z rządem USA na temat tego, w jaki sposób jego technologia może pomóc w zapobieganiu samobójstwom weteranów – powiedziała.

„Ponieważ wcześniej obowiązywał zasadniczo całkowity zakaz dotyczący wojska, wiele osób uważało, że zabrania to wielu z tych przypadków użycia, które według nich są w dużym stopniu zgodne z tym, co chcemy widzieć na świecie” – powiedział Makanju. 

Jednak pomimo usunięcia „wojskowych i wojennych” oraz innych „niedozwolonych zastosowań” ChatGPT, Makanju powiedział, że OpenAI utrzymuje zakaz wykorzystywania swoich modeli do opracowywania broni mogącej ranić ludzi. 

Również podczas tego samego wywiadu dyrektor generalny OpenAI Sam Altman powiedział, że firma podejmuje kroki, aby zapewnić, że jej narzędzia generatywnej sztucznej inteligencji nie będą wykorzystywane do szerzenia dezinformacji związanej z wyborami. 

Wynika to również z podobnego rozwiązania naciśnięcie przez Microsoft, największy inwestor OpenAI, który w listopadzie ogłosił pięcioetapową strategię ochrony wyborów dla „Stanów Zjednoczonych i innych krajów, w których w 2024 r. odbędą się krytyczne wybory”. 

„Stawka tych wyborów jest bardzo duża” – powiedział we wtorek Altman.

Dzieje się to dzień po śmierci byłego prezydenta USA Donalda Trumpa Wielka wygrana w poniedziałek w klubie w Iowa.

Wszystkie te tematy – sztuczna inteligencja, cyberbezpieczeństwo i dezinformacja – odgrywają znaczącą rolę w porządku obrad spotykają się światowi przywódcy w tym tygodniu w Davos.

Według WEF Raport o globalnym ryzyku 2024, opublikowanym w zeszłym tygodniu, „dezinformacja i dezinformacja” to najważniejsze krótkoterminowe ryzyko globalne, a „brak bezpieczeństwa cybernetycznego” zajmuje czwarte miejsce.

Rozwój generatywnej sztucznej inteligencji pogłębia te wyzwania – 56 procent menedżerów ankietowanych na konferencji WEF Coroczne Spotkanie Cyberbezpieczeństwa w listopadzie 2023 r., mówiąc Generatywna sztuczna inteligencja zapewni atakującym i przewagę nad obrońcami w ciągu najbliższych dwóch lat.

„Szczególne obawy budzi wykorzystanie technologii sztucznej inteligencji do zwiększania zdolności w zakresie cyberwojny i nie bez powodu” – powiedział Bernard Montel, dyrektor techniczny na region EMEA w Tenable Rejestr

„Chociaż w ciągu ostatnich 12–24 miesięcy sztuczna inteligencja dokonała astronomicznego postępu technologicznego, umożliwienie autonomicznemu urządzeniu podejmowania ostatecznej oceny jest dziś niezrozumiałe” – dodał.

„Chociaż sztuczna inteligencja jest w stanie szybko zidentyfikować i zautomatyzować niektóre działania, które należy podjąć, konieczne jest, aby to ludzie podejmowali krytyczne decyzje dotyczące tego, gdzie i kiedy działać, na podstawie inteligencji zapewnianej przez sztuczną inteligencję”. ®

Znak czasu:

Więcej z Rejestr