Microsoft paljastaa syvän fake-tekniikan, joka on liian hyvä julkaistavaksi

Microsoft paljastaa syvän fake-tekniikan, joka on liian hyvä julkaistavaksi

Microsoft esittelee syvän fake-tekniikan, joka on liian hyvä PlatoBlockchain Data Intelligencen julkaisemiseen. Pystysuuntainen haku. Ai.

Microsoft esitteli tällä viikolla VASA-1:n, kehyksen, jolla luodaan videoita, joissa ihmiset puhuvat pysäytyskuvasta, ääninäytteestä ja tekstikirjoituksesta, ja väittää – oikeutetusti – se on liian vaarallista julkaistavaksi yleisölle.

Nämä tekoälyn luomat videot, joissa ihmiset voidaan vakuuttavasti animoida puhumaan käsikirjoitettuja sanoja kloonatulla äänellä, ovat juuri sellaisia ​​asioita, joita Yhdysvaltain liittovaltion kauppakomissio varoitti viime kuussa edellisen jälkeen ehdottaa sääntöä estääkseen tekoälyteknologiaa käyttämästä toisena henkilönä esiintymispetoksia.

Microsoftin tiimi tunnustaa sen ilmoitus, mikä selittää, että tekniikkaa ei julkaista eettisistä syistä. He vaativat, että he esittävät tutkimusta virtuaalisten vuorovaikutteisten hahmojen luomiseksi eivätkä kenenkään esittämiseen. Näin ollen tuotetta tai APIa ei ole suunniteltu.

"Tutkimuksemme keskittyy visuaalisten affektiivisten taitojen luomiseen virtuaalisille AI-avatareille, jotka tähtäävät positiivisiin sovelluksiin", Redmond Boffins toteaa. "Sen ei ole tarkoitus luoda sisältöä, jota käytetään harhaanjohtamiseen tai pettämiseen.

"Kuitenkin, kuten muitakin siihen liittyviä sisällöntuotantotekniikoita, sitä voidaan silti mahdollisesti käyttää väärin ihmisinä esiintymiseen. Vastustamme kaikkea toimintaa, joka luo harhaanjohtavaa tai haitallista sisältöä oikeista henkilöistä, ja olemme kiinnostuneita soveltamaan tekniikkaamme väärennösten havaitsemisen edistämiseen.

Kevin Surace, biometrisen todennusyrityksen Tokenin puheenjohtaja ja usein puhuja generatiivisesta tekoälystä, kertoi. Rekisteri sähköpostissa, jossa kerrottiin, että vaikka aiempien tekniikoiden esittelyssä kasvoja on animoitu pysäytyskehyksestä ja kloonatusta äänitiedostosta, Microsoftin esittely heijastaa tekniikan tasoa.

"Sähköpostien ja muun yritysten joukkoviestinnän personoinnin vaikutukset ovat upeita", hän arvioi. "Jopa animoida myös vanhempia kuvia. Jossain määrin tämä on vain hauskaa ja toisaalta siinä on vahvoja liiketoimintasovelluksia, joita tulemme kaikki käyttämään tulevina kuukausina ja vuosina.

Deepfakejen "hauskaa" oli 96 prosenttia ei-konsensuspornoa arvioitu [PDF] vuonna 2019 kyberturvallisuusyhtiö Deeptracen toimesta.

Siitä huolimatta Microsoftin tutkijat ehdottavat, että kyvyllä luoda realistisen näköisiä ihmisiä ja laittaa sanoja heidän suuhunsa on positiivista hyötyä.

"Tällaisella tekniikalla on lupaus rikastuttaa digitaalista viestintää, parantaa kommunikaatiovammaisten saavutettavuutta, muuttaa koulutusta, interaktiivisen tekoälyohjauksen menetelmiä ja tarjota terapeuttista tukea ja sosiaalista vuorovaikutusta terveydenhuollossa", he ehdottavat. tutkimus paperi joka ei sisällä sanoja "porno" tai "väärintietoa".

Vaikka kiistanalainen tekoälyn luoma video ei ole aivan sama kuin deepfake, jälkimmäinen määritelty digitaalisella manipuloinnilla generatiivisen menetelmän sijaan ero muuttuu merkityksettömäksi, kun vakuuttava väärennös voidaan loihtia ilman leikkaa ja liitä -oksastamista.

Kysyttäessä, mitä hän ajattelee siitä, että Microsoft ei julkaise tätä tekniikkaa yleisölle väärinkäytön pelossa, Surace ilmaisi epäilynsä rajoitusten toimivuudesta.

"Microsoft ja muut ovat toistaiseksi pidättäytyneet, kunnes he selvittävät tietosuoja- ja käyttöongelmat", hän sanoi. "Kuinka kukaan säätelee sitä, kuka käyttää tätä oikeista syistä?"

Surace lisäsi, että on jo olemassa avoimen lähdekoodin malleja, jotka ovat samalla tavalla kehittyneitä, viitaten siihen EMO. "Voidaan vetää lähdekoodi GitHubista ja rakentaa sen ympärille palvelu, joka todennäköisesti kilpailisi Microsoftin tuotoksen kanssa", hän huomautti. "Avaruuden avoimen lähdekoodin luonteen vuoksi sen säätely on joka tapauksessa mahdotonta."

Maat ympäri maailmaa yrittävät kuitenkin säännellä tekoälyn tekemiä ihmisiä. Kanada, Kiina, ja UKMuiden maiden joukossa kaikilla on säännöksiä, joita voidaan soveltaa syväväärennöksiin, joista osa täyttää laajempia poliittisia tavoitteita. Iso-Britannia vasta tällä viikolla teki siitä laitonta luoda seksuaalisesti selkeä syvä väärennöskuva ilman suostumusta. Tällaisten kuvien jakaminen oli jo kielletty Yhdistyneen kuningaskunnan vuoden 2023 online-turvallisuuslain nojalla.

Tammikuussa kahden puolueen ryhmä Yhdysvaltain lainsäätäjiä käyttöön vuoden 2024 Disrupt Explicit Forged Images and Non-Consensual Edits Act (DEFIANCE Act) -laki, joka luo tavan, jolla ilman suostumusta syntyneiden syväfake-kuvien uhrit voivat nostaa siviilikanteen tuomioistuimessa.

Ja tiistaina 16. huhtikuuta Yhdysvaltain senaatin oikeuslaitoksen komitea, yksityisyyden suojaa, teknologiaa ja lakia käsittelevä alakomitea piti kuuleminen nimeltä "Overight of AI: Election Deepfakes".

Valmisteluissaan huomautuksissa Rijul Gupta, DeepMedian, syvän väärennösten havaitsemisyrityksen, toimitusjohtaja sanoi:

Deepfakejen hälyttävin puoli on niiden kyky tarjota huonoille näyttelijöille uskottavaa kieltämistä, jolloin he voivat hylätä aidon sisällön väärennöksenä. Tämä yleisen luottamuksen rapautuminen iskee yhteiskuntamme ytimeen ja demokratiamme perustaan. Ihmisaivot, jotka on kytketty uskomaan näkemäänsä ja kuulemaansa, ovat erityisen alttiita syväväärennösten huijaukselle. Kun nämä tekniikat kehittyvät yhä kehittyneemmiksi, ne uhkaavat heikentää yhteiskuntamme perustana olevaa yhteistä todellisuudentajua luoden epävarmuuden ja skeptismin ilmapiirin, jossa kansalaiset joutuvat kyseenalaistamaan jokaisen kohtaamansa tiedon todenperäisyyden.

Mutta ajattele markkinointisovelluksia. ®

Aikaleima:

Lisää aiheesta Rekisteri