Południowokoreańska policja wdraża narzędzie do wykrywania fałszywych informacji przed wyborami

Południowokoreańska policja wdraża narzędzie do wykrywania fałszywych informacji przed wyborami

Południowokoreańska policja wdraża narzędzie do wykrywania fałszywych fałszywych informacji przed wyborami PlatoBlockchain Data Intelligence. Wyszukiwanie pionowe. AI.

W obliczu gwałtownego wzrostu liczby fałszywych fałszywych informacji o podłożu politycznym południowokoreańska Krajowa Agencja Policyjna (KNPA) opracowała i wdrożyła narzędzie do wykrywania treści generowanych przez sztuczną inteligencję do wykorzystania w potencjalnych dochodzeniach karnych.

Według Krajowego Biura Śledczego (NOI) KNPA program głębokiego uczenia się został przeszkolony na podstawie około 5.2 miliona danych pochodzących od 5,400 obywateli Korei. Potrafi określić, czy film (na którym nie został wcześniej przeszkolony) jest prawdziwy, czy nie, w ciągu zaledwie pięciu do 10 minut, ze współczynnikiem dokładności wynoszącym około 80%. Narzędzie automatycznie generuje arkusz wyników, który policja może wykorzystać w dochodzeniach karnych.

Jak podają koreańskie mediawyniki te zostaną wykorzystane w dochodzeniach, ale nie będą wykorzystywane jako bezpośredni dowód w procesach karnych. Policja stworzy także przestrzeń do współpracy z ekspertami AI ze środowisk akademickich i biznesowych.

Eksperci ds. bezpieczeństwa sztucznej inteligencji wezwali do stosowania sztucznej inteligencji na stałe, w tym do wykrywania dezinformacji i deepfake’ów.

„O to chodzi: sztuczna inteligencja może nam pomóc analizować [fałszywe treści] na dowolną skalę” – powiedział Dark Reading Gil Shwed, dyrektor generalny Check Point, w wywiadzie udzielonym w tym tygodniu. Chociaż sztuczna inteligencja jest chorobą, stwierdził, jest także lekarstwem: „[Wykrywanie oszustw] wymagało bardzo złożonych technologii, ale dzięki sztucznej inteligencji można zrobić to samo, dysponując minimalną ilością informacji — nie tylko dobrymi i dużymi ilościami Informacja."

Problem Deepfake w Korei

Podczas gdy reszta świata czeka w oczekiwaniu na deepfakes atakują sezony wyborczeKoreańczycy zajęli się już tym problemem z bliska i osobiście.

Do zdarzenia z kanarekiem w kopalni doszło podczas wyborów do prowincji w 2022 r., kiedy w mediach społecznościowych rozpowszechniło się wideo, na którym widać, jak prezydent Yoon Suk Yeol popiera lokalnego kandydata partii rządzącej.

Ten rodzaj oszustwa stał się ostatnio coraz bardziej powszechny. W zeszłym miesiącu Państwowa Komisja Wyborcza ujawniła, że ​​między 29 stycznia a 16 lutego wykrył 129 deepfakesów z naruszeniem prawa wyborczego – a liczba ta ma wzrosnąć dopiero w miarę zbliżania się dnia wyborów 10 kwietnia. Wszystko to pomimo zmienionej ustawy, która weszła w życie 29 stycznia, stanowiącej, że wykorzystanie fałszywych filmów, zdjęć lub plików audio w związku z wyborami może skutkować karą do siedmiu lat więzienia i grzywną do 50 milionów wonów (około 37,500 XNUMX dolarów). 

Nie tylko dezinformacja

Shwed z Check Point ostrzegł, że sztuczna inteligencja, jak każda nowa technologia, niesie ze sobą ryzyko. „A więc tak, mogą się zdarzyć złe rzeczy i musimy się przed nimi bronić” – powiedział.

Dodał, że fałszywe informacje nie stanowią większego problemu. „Ogólnie największym problemem konfliktów międzyludzkich jest to, że nie widzimy całego obrazu – wybieramy elementy [w wiadomościach], które chcemy zobaczyć, a następnie na ich podstawie podejmujemy decyzję” – powiedział.

„Nie chodzi o dezinformację, ale o to, w co wierzysz. Na podstawie tego, w co wierzysz, wybierasz, które informacje chcesz zobaczyć. Nie na odwrót."

Znak czasu:

Więcej z Mroczne czytanie