Jeśli chatboty AI są świadome, mogą być również wiewiórkami PlatoBlockchain Data Intelligence. Wyszukiwanie pionowe. AI.

Jeśli chatboty AI są świadome, mogą też być wiewiórkami

W skrócie Nie, chatboty AI nie są świadome.

Tak szybko, jak historia na inżyniera Google, który dmuchnął w gwizdek na temat, jak twierdził, modelu języka rozumnego, stał się wirusowy, wiele publikacji wkroczyło, by powiedzieć, że się myli.

Połączenia debata czy firma Chatbot LaMDA jest świadomy, ma duszę lub nie, nie jest zbyt dobry, tylko dlatego, że zbyt łatwo jest zamknąć stronę, która w to wierzy. Podobnie jak większość dużych modeli językowych, LaMDA ma miliardy parametrów i został wyszkolony na tekście zeskrobanym z Internetu. Model uczy się relacji między słowami i tego, które z nich częściej pojawiają się obok siebie.

Wydaje się wystarczająco inteligentny i czasami potrafi poprawnie odpowiedzieć na pytania. Ale nie wie nic o tym, co mówi, i nie ma prawdziwego zrozumienia języka ani niczego w rzeczywistości. Modele językowe zachowują się losowo. Zapytaj go, czy ma uczucia, a może powiedzieć tak lub Nie. Zapytaj, czy to wiewiórka, i może też powiedzieć tak lub nie. Czy to możliwe, że chatboty AI mogą być wiewiórkami?

FTC alarmuje o wykorzystaniu AI do moderowania treści

AI zmienia internet. Realistycznie wyglądające zdjęcia są wykorzystywane w profilach fałszywych kont w mediach społecznościowych, krążą pornograficzne filmy deepfake z kobietami, obrazy i tekst generowane przez algorytmy są publikowane w Internecie.

Eksperci ostrzegają, że te możliwości mogą zwiększać ryzyko oszustw, botów, dezinformacji, nękania i manipulacji. Platformy coraz częściej zwracają się do algorytmów AI, aby automatycznie wykrywać i usuwać złe treści.

Teraz FTC ostrzega, że ​​te metody mogą pogorszyć problemy. „Nasz raport podkreśla, że ​​nikt nie powinien traktować sztucznej inteligencji jako sposobu na rozprzestrzenianie szkodliwych treści online” – Samuel Levine, dyrektor Biura Ochrony Konsumentów FTC, powiedziany w oświadczeniu.

Niestety technologia może być „niedokładna, stronnicza i dyskryminująca z założenia”. „Zwalczanie szkód w Internecie wymaga szerokiego wysiłku społecznego, a nie zbyt optymistycznego przekonania, że ​​nowa technologia – która może być zarówno pomocna, jak i niebezpieczna – usunie te problemy z naszych rąk” – powiedział Levine.

Spotify uruchamia głębokie fałszowanie głosu

Gigant strumieniowego przesyłania dźwięku, Spotify, nabył Sonantic, londyńską firmę zajmującą się tworzeniem oprogramowania AI zdolnego do generowania całkowicie zmyślonych głosów.

Technologia Sonantic została wykorzystana w grach i w hollywoodzkich filmach, pomagając aktorowi Valowi Kilmerowi wypowiedzieć się w tej sprawie Top Gun: Maverick. Kilmer zagrał Icemana w filmie akcji; jego słowa zostały wypowiedziane przez maszynę z powodu trudności w mówieniu po walce z rakiem gardła.

Teraz ta sama technologia wydaje się trafiać również do Spotify. Oczywistym zastosowaniem byłoby używanie głosów AI do czytania audiobooków. W końcu Spotify nabyty Findaway, platforma audiobooków, w listopadzie ubiegłego roku. Ciekawie będzie zobaczyć, czy słuchacze będą mogli dostosować sposób, w jaki chcą, aby brzmiał ich narracja maszynowa. Może będą inne głosy do głośnego czytania książek dla dzieci niż do opowieści grozy.

„Jesteśmy naprawdę podekscytowani możliwością wprowadzenia technologii głosowej Sonantic AI na platformę Spotify i stworzenia nowych doświadczeń dla naszych użytkowników” – Ziad Sultan, wiceprezes Spotify ds. personalizacji, powiedziany w oświadczeniu. „Ta integracja pozwoli nam zaangażować użytkowników w nowy, jeszcze bardziej spersonalizowany sposób” – zasugerował.

TSA testujące oprogramowanie AI do automatycznego skanowania bagażu

Amerykańska Administracja Bezpieczeństwa Transportu będzie testować, czy oprogramowanie do widzenia komputerowego może automatycznie sprawdzać bagaż w celu wykrycia przedmiotów, które wyglądają dziwnie lub nie są dozwolone w lotach.

Próba odbędzie się w laboratorium i nie jest jeszcze gotowa na prawdziwe lotniska. Oprogramowanie współpracuje z już istniejącym obrazowaniem 3D tomografii komputerowej (CT), z którego funkcjonariusze TSA korzystają obecnie, aby zaglądać przez torby ludzi w punktach kontroli bezpieczeństwa. Jeśli agenci zobaczą coś podejrzanego, odniosą bagaż na bok i przejrzą go.

Algorytmy AI mogą zautomatyzować część tego procesu; potrafią identyfikować obiekty i oznaczać przypadki, w których wykryją określone elementy.

„Ponieważ TSA i inne agencje bezpieczeństwa przyjmują CT, to zastosowanie sztucznej inteligencji stanowi potencjalnie transformacyjny skok w bezpieczeństwie lotniczym, czyniąc podróże lotnicze bezpieczniejszymi i bardziej spójnymi, jednocześnie umożliwiając wysoko wyszkolonym funkcjonariuszom TSA skupienie się na torbach, które stanowią największe ryzyko” powiedziany Alexis Long, dyrektor produktu w Pangiam, firmie technologicznej współpracującej z administracją.

„Naszym celem jest wykorzystanie sztucznej inteligencji i technologii wizji komputerowej w celu zwiększenia bezpieczeństwa poprzez zapewnienie TSA i funkcjonariuszom ochrony potężnych narzędzi do wykrywania przedmiotów zaporowych, które mogą stanowić zagrożenie dla bezpieczeństwa lotnictwa, jest to znaczący krok w kierunku ustanowienia nowego standardu bezpieczeństwa o ogólnoświatowych implikacjach”. ®

Znak czasu:

Więcej z Rejestr