Microsoft przedstawia technologię deepfake, która jest zbyt dobra, aby ją wypuścić

Microsoft przedstawia technologię deepfake, która jest zbyt dobra, aby ją wypuścić

Microsoft przedstawia technologię deepfake, która jest zbyt dobra, aby wypuścić PlatoBlockchain Data Intelligence. Wyszukiwanie pionowe. AI.

W tym tygodniu Microsoft zademonstrował VASA-1, platformę do tworzenia filmów wideo przedstawiających ludzi rozmawiających na podstawie nieruchomego obrazu, próbki dźwięku i skryptu tekstowego, i twierdzi – słusznie – że jest ona zbyt niebezpieczna, aby ją upubliczniać.

Te filmy generowane przez sztuczną inteligencję, w których można przekonująco animować ludzi, aby wypowiadali zapisane w scenariuszu słowa sklonowanym głosem, są właśnie czymś, czego domaga się amerykańska Federalna Komisja Handlu ostrzegany o w zeszłym miesiącu, po wcześniej proponując regułę aby zapobiec wykorzystywaniu technologii sztucznej inteligencji do oszustw związanych z podszywaniem się pod inne osoby.

Zespół Microsoftu przyznaje to w swoim zapowiedź, co wyjaśnia, że ​​technologia ta nie zostanie udostępniona ze względów etycznych. Upierają się, że przedstawiają badania dotyczące generowania wirtualnych interaktywnych postaci, a nie podszywania się pod kogokolwiek. W związku z tym nie planuje się żadnego produktu ani interfejsu API.

„Nasze badania koncentrują się na generowaniu wizualnych umiejętności afektywnych dla wirtualnych awatarów AI, mając na celu pozytywne zastosowania” – stwierdza Redmond boffins. „Nie ma na celu tworzenia treści służących do wprowadzania w błąd lub oszukiwania.

„Jednak podobnie jak inne powiązane techniki generowania treści, może to nadal potencjalnie zostać wykorzystane do podszywania się pod ludzi. Sprzeciwiamy się wszelkim zachowaniom prowadzącym do tworzenia wprowadzających w błąd lub szkodliwych treści dotyczących prawdziwych osób i jesteśmy zainteresowani zastosowaniem naszej techniki w celu usprawnienia wykrywania fałszerstw.

Kevin Surace, prezes Token, firmy zajmującej się uwierzytelnianiem biometrycznym i częsty prelegent na temat generatywnej sztucznej inteligencji, powiedział Rejestr w e-mailu, w którym poinformowano, że choć już wcześniej przeprowadzano demonstracje technologii twarzy animowanych na podstawie nieruchomych klatek i sklonowanego pliku głosowego, demonstracja Microsoftu odzwierciedla aktualny stan wiedzy.

„Konsekwencje personalizacji wiadomości e-mail i innej masowej komunikacji biznesowej są fantastyczne” – stwierdził. „Nawet animowanie starszych obrazów. W pewnym stopniu jest to po prostu zabawa, a w innym zawiera solidne zastosowania biznesowe, z których wszyscy będziemy korzystać w nadchodzących miesiącach i latach”.

Kiedy „zabawa” w deepfakes polegała w 96% na pornografice bez zgody oceniać [PDF] w 2019 r. przez firmę Deeptrace zajmującą się bezpieczeństwem cybernetycznym.

Niemniej jednak badacze Microsoftu sugerują, że możliwość tworzenia realistycznie wyglądających ludzi i wkładania im słów w usta ma pozytywne zastosowania.

„Taka technologia obiecuje wzbogacić komunikację cyfrową, zwiększyć dostępność dla osób z zaburzeniami komunikacyjnymi, przekształcić edukację, metody z interaktywnym nauczaniem AI oraz zapewnić wsparcie terapeutyczne i interakcje społeczne w opiece zdrowotnej” – proponują w Referat naukowy który nie zawiera słów „pornografia” ani „dezinformacja”.

Chociaż można dyskutować, wideo generowane przez sztuczną inteligencję nie jest tym samym, co deepfake, ten drugi zdefiniowane poprzez manipulację cyfrową w przeciwieństwie do metody generatywnej, rozróżnienie staje się nieistotne, gdy można stworzyć przekonującą podróbkę bez przeszczepiania metodą wycinania i wklejania.

Zapytany, co sądzi o tym, że Microsoft nie udostępnia tej technologii publicznie w obawie przed nadużyciami, Surace wyraził wątpliwości co do wykonalności ograniczeń.

„Microsoft i inne firmy na razie się z tym wstrzymały, dopóki nie rozwiążą problemów związanych z prywatnością i użytkowaniem” – powiedział. „Jak ktokolwiek będzie regulować, kto używa tego z właściwych powodów?”

Surace dodała, że ​​istnieją już modele open source, które są podobnie wyrafinowane, wskazując EMO. „Można pobrać kod źródłowy z GitHuba i zbudować wokół niego usługę, która prawdopodobnie dorównałaby produktom Microsoftu” – zauważył. „Ze względu na otwarty charakter przestrzeni, jej regulowanie w żadnym wypadku nie będzie możliwe”.

To powiedziawszy, kraje na całym świecie próbują regulować ludzi wytworzonych przez sztuczną inteligencję. Kanada, Chinyi UKmiędzy innymi we wszystkich krajach obowiązują przepisy, które można zastosować do deepfake’ów, a niektóre z nich służą szerszym celom politycznym. Wielkiej Brytanii w tym tygodniu uczynił to nielegalnym do tworzenia fałszywych obrazów o charakterze jednoznacznie seksualnym bez zgody. Udostępnianie takich zdjęć zostało już zabronione na mocy brytyjskiej ustawy o bezpieczeństwie w Internecie z 2023 r.

W styczniu ponadpartyjna grupa amerykańskich prawodawców wprowadzono Ustawa Disrupt Explicit Forged Images and Non-Consensual Editing Act z 2024 r. (ustawa DEFIANCE) – ustawa, która umożliwia ofiarom fałszywych obrazów wykonanych bez zgody osób wnoszących pozew cywilny do sądu.

We wtorek, 16 kwietnia, Komisja Sądownictwa Senatu USA, Podkomisja ds. Prywatności, Technologii i Prawa, zebrała się przesłuchanie zatytułowany „Nadzór nad sztuczną inteligencją: głębokie fałszerstwa wyborcze”.

W przygotowanych uwagach Rijul Gupta, dyrektor generalny DeepMedia, firmy zajmującej się wykrywaniem deepfake’ów, powiedział:

Najbardziej niepokojącym aspektem deepfake'ów jest ich zdolność do zapewniania złym aktorom wiarygodnego zaprzeczenia, co pozwala im na odrzucenie prawdziwych treści jako fałszywych. Ta erozja zaufania publicznego uderza w sam rdzeń naszej tkanki społecznej i podstawy naszej demokracji. Ludzki mózg, zaprogramowany tak, by wierzyć w to, co widzi i słyszy, jest szczególnie podatny na zwiedzenie za pomocą deepfakes. W miarę jak technologie te stają się coraz bardziej wyrafinowane, grożą podważeniem wspólnego poczucia rzeczywistości, które leży u podstaw naszego społeczeństwa, tworząc atmosferę niepewności i sceptycyzmu, w której obywatele kwestionują prawdziwość każdej napotkanej informacji.

Ale pomyśl o zastosowaniach marketingowych. ®

Znak czasu:

Więcej z Rejestr