Dyrektor generalny Leonardo podkreśla głupotę użytkowników w obliczu zagrożeń AI

Dyrektor generalny Leonardo podkreśla głupotę użytkowników w obliczu zagrożeń AI

Dyrektor generalny Leonardo, Roberto Cingolani z Davos, wyraził zaniepokojenie niewłaściwym wykorzystaniem sztucznej inteligencji przez ludzi, podkreślając potrzebę lepszej kontroli nad technologią.

Roberto Cingolani, dyrektor generalny włoskiej firmy obronnej Leonardo, trafił niedawno na pierwsze strony gazet po swoich uwagach dotyczących sztuczna inteligencja (AI), podkreślając fakt, że błąd ludzki stanowi większe ryzyko niż sama technologia.

Przeczytaj także: Chatboty AI podają fałszywe informacje o głosowaniu w 50% przypadków

Jego komentarze podczas wywiadu na Światowym Forum Ekonomicznym w Davos w Szwajcarii wywołały długą debatę na temat roli i regulacji sztucznej inteligencji we współczesnym społeczeństwie.

Głupota użytkowników

Przemawiając w styczniu na Światowe Forum Ekonomiczne w Davos w Szwajcarii Guterres ostrzegł, że szybko rozwijająca się dziedzina sztucznej inteligencji może mieć „poważne niezamierzone konsekwencje”.

Dyrektor generalny Leonardo, Roberto Cingolani, powiedział Squawk Box Europe z CNBC, że szczerze mówiąc, bardziej niepokoi go brak kontroli ze strony ludzi, którzy po 2,000 latach wciąż toczą wojny. Dodał, że mając to na uwadze, sztuczna inteligencja jest narzędziem, algorytmem stworzonym przez człowieka; obsługują to komputery stworzone przez ludzi; i który kontroluje maszyny stworzone przez ludzi. Stwierdził, że bardziej się boi i martwi [o] głupotą narodową niż sztuczną inteligencją.

Dyrektor generalny Leonardo podkreśla głupotę użytkowników w związku z zagrożeniami AI PlatoBlockchain Data Intelligence Wyszukiwanie pionowe. AI.

Powiedział też, że ma wykształcenie naukowe, dlatego uważa technologię za neutralną. Problemem jest użytkownik, a nie sama technologia.

AI na wojnie

Podczas rozmowy Cingolani poruszył ironię, że po tysiącach lat cywilizacji ludzie nadal nie mogą położyć kresu działaniom wojennym. Zasugerował, że prawdziwym zagrożeniem dla Technologia AI nie jest jego potencjał do niewłaściwego użycia przez ludzi, ale raczej niewłaściwe jego wykorzystanie przez człowieka.

Podkreślił, że technologia jest neutralna i że na pierwszym miejscu należy postawić potrzeby użytkowników, a nie narzędzia.

Ten punkt widzenia podkreśla toczącą się dyskusję na temat moralnego zastosowania sztucznej inteligencji, szczególnie w delikatnych dziedzinach, takich jak obrona, gdzie Leonardo jest znaczącą postacią. Na znaczącą zmianę w podejściu technologicznym do obronności i bezpieczeństwa wskazuje podejmowana przez firmę próba cyfryzacji swoich platform poprzez integrację autonomicznych systemów i usług opartych na sztucznej inteligencji.

Dyrektor generalny Leonardo podkreśla głupotę użytkowników w związku z zagrożeniami AI PlatoBlockchain Data Intelligence Wyszukiwanie pionowe. AI.

Zastosowanie sztucznej inteligencji

Zwolennicy sztucznej inteligencji twierdzą, że technologię tę można wykorzystać do postępu i korzyści dla ludzkości na kilka sposobów, takich jak szybkie diagnozowanie pacjentów, pomoc w modelowaniu zmian klimatycznych i zwalczanie cyberataków.

Według raport opublikowanych przez Międzynarodowy Fundusz Walutowy, rozwój sztucznej inteligencji może mieć wpływ na prawie 40% miejsc pracy na całym świecie.

Co więcej, instytucja z siedzibą w Waszyngtonie ostrzegła, że ​​potencjalny wpływ technologii na światowy rynek pracy zasadniczo pogłębi nierówności.

Według Cingolani firmy obronne takie jak Leonardo muszą włożyć „duży wysiłek”, aby wdrożyć „masową cyfryzację” swoich platform, co obejmuje oferowanie autonomicznych systemów i usług opartych na sztucznej inteligencji.

Dodał, że jest to całkowita zmiana paradygmatu i inne podejście technologiczne do obronności i bezpieczeństwa. Stwierdził, że jest to duże wyzwanie technologiczne.

Opinie wybitnych osobistości w tej dziedzinie, takich jak Cingolani, dostarczają wnikliwych punktów widzenia na temat trudności i możliwości, które stoją przed nami w miarę rozwoju dyskusji na temat sztucznej inteligencji i jej konsekwencji. Celem jest nadal ochrona przed niebezpieczeństwami wynikającymi z niewłaściwego użycia i niekontrolowanego rozwoju sztucznej inteligencji, przy jednoczesnej maksymalizacji jej potencjału przynoszącego korzyści ludzkości.

Znak czasu:

Więcej z MetaWiadomości