Vi har brug for regulering for at redde menneskeheden fra AI... Og for at redde AI-aktier - CryptoInfoNet

Vi har brug for regulering for at redde menneskeheden fra AI ... og for at redde AI-aktier - CryptoInfoNet

Vi har brug for regulering for at redde menneskeheden fra AI... Og for at redde AI-aktier - CryptoInfoNet PlatoBlockchain Data Intelligence. Lodret søgning. Ai.

Som kunstig intelligens (AI) udviklingen sætter teknologien i centrum, og investorer lugter naturligvis muligheder i luften. De lugter også de frisktrykte formularer og bureaukrati fra regulatoren, der bare venter på at tage deres snit og hæmmer den brølende maskine af AI-innovation. Men til dem, der er bekymrede for, at onkel Sam kunne knuse industrien gennem nye regler og restriktioner, vil jeg hævde, at det stik modsatte er sandt her: Forskrifter kan redde industrien fra sig selv. Og i forlængelse heraf beskytter flere reguleringer for industrien, ikke skade, investorer. 

I de fleste nye brancher er ordet "regulering" tabu. Nu er AI-industrien ikke ligefrem ny. Det moderne koncept går tilbage til 1950'erne, og både private og offentlige investeringer på området er vokset og aftaget i løbet af de seneste 70 år eller deromkring. 1980'erne og begyndelsen af ​​1990'erne oplevede en boom-og-bust-cyklus i kunstig intelligens-investeringer. Investeringer fra den japanske regering i 80'erne kickstartede det første store kommercielle AI-boom. Men i 1993 lukkede "over 300 virksomheder deres døre", da boblen sprang. Imidlertid har moderne fremskridt inden for computerkraft og store sprogmodeller (LLM'er) givet industrien nyt liv, og dens potentiale er ikke kun at tiltrække investorer, men også regulatorer.

AI-regler: Et rod af interesser og risici

Spørgsmålet om, hvad "AI-regulering" bør eller ligefrem kan være, er et spørgsmål for politikere, politikere og etikere. Det, investorer gerne vil vide, er, hvad det vil betyde for deres porteføljer, naturligvis. Hvad er de største risici? Og det er her, love og regler kan give en vis beskyttelse og hjælpe med at håndtere disse risici.

De største risici for investorer koger ned til tre overlappende kerneproblemer: bedrageri, beskyttelse af intellektuel ejendom og privatliv. Selvfølgelig er der allerede love i bøgerne, der behandler alle tre af disse spørgsmål individuelt. Problemet er dog, at kunstig intelligens repræsenterer en unikt kompliceret blanding af alle tre risici, der uden klare rammer, love og regler truer hele industriens fremgang.

Den mest presserende bekymring på listen for investorer er svindel. Næsten alle kan være enige om, at forebyggelse af svig er en vigtig og afgørende rolle for regulering.

Svigagtige wireridende aber: To casestudier

To casestudier viser den potentielle fremtid for AI-reguleringer, risikoen for svindel og de regulatoriske tidsrammer, investorer bør forvente. Begge viser også, hvordan bedrageri vil forme de kommende lovgivningsmæssige handlinger.

Den første er verden af ​​kryptovalutaer og ikke-fungible tokens (NFT'er). En betydeligt nyere industri end AI, crypto har set sin rimelige andel af boom og buster og, vigtigst af alt, svindel. Securities and Exchange Commission (SEC) og Federal Trade Commission (FTC) har brugt et godt årti på at finde ud af, hvordan man tilpasser krypto til deres reguleringsordninger. Kongressen har endnu ikke vedtaget nogen eksplicit krypto-relateret lovgivning på trods af nogle forsøg.

I den tid er talrige børser steget og kollapset. NFT'er gik fra at være i top i 2021 og 2022 til miste 95 % af deres værdi, og tager milliarder af investorers dollars med sig. Berygtet, sammenbruddet af FTX og nylig retssag af Sam Bankman-Fried involverede milliarder af dollars af svigagtigt brugte midler.

Det andet casestudie her er cybersikkerhed. I modsætning til med krypto er der en hel del etablerede kernelove på bøgerne for industrien. De første to "sande" cybersikkerhedslove var Computer Fraud and Abuse Act af 1986 og Comprehensive Crime Control Act af 1984. Begge var afhængige af kreative og relativt nye forståelser af "ledninger" (som i telegrafledninger) og ledningsbedrageri.

I årtierne siden har Kongressen vedtaget stykkevise love om cyber-emner med blandede resultater. Dette har resulteret i, at staterne har taget fat. Cybersikkerhedsverdenen er også et eksempel på en industri med dybt krydsende interesser, hvoraf mange ikke er ulig de risici og regulatoriske blinde vinkler, som industrien for kunstig intelligens står over for. En af de mest bemærkelsesværdige er privatlivets fred. Bekymringer over individuel privatliv, der almindeligvis forbindes med sociale medier og tingenes internet (IoT), opstår også med AI-træningsmodeller.

Begge eksempler her giver lektioner til den hurtigt voksende kunstig intelligens-industri. Kryptoverdenens højrisiko-, højbelønnings- og lavregulerende miljø er fyldt med svindel og ustabilitet. Cybersikkerhed er en meget ældre og etableret branche, men det lovgivningsmæssige miljø er stadig usammenhængende, især hvad angår privatlivets fred.

Den nuværende tilstand af AI-regulativer

Så for at få en idé om, hvilke af disse regulatoriske veje investorer bør forvente, lad os se på det nuværende regulatoriske miljø for kunstig intelligens.

Startende med den hjemlige scene, ja … der er ikke meget, i det mindste lovgivningsmæssigt. Præsident Joe Biden har på den anden side haft travlt med at skabe en lovgivningsmæssig vej via et frivilligt løfte og, senest og vigtigst, en skelsættende og gennemgribende bekendtgørelse.

Tidligere i år annoncerede Det Hvide Hus et ikke-bindende frivilligt løfte til "håndter de risici, AI udgør." Blandt underskriverne af dette løfte er nogle store navne som Amazon (NASDAQ:AMZN), Meta-platforme (NASDAQ:META), Alfabet (NASDAQ:GOOG, NASDAQ:GOOGL) og OpenAI. Office of Science and Technology Policy (OSTP), en afdeling i Det Hvide Hus, har også udgivet en "Blueprint for en AI Bill of Rights." En anden særligt frivillig ramme for sikker og etisk brug af kunstig intelligens.

Ifølge Det Hvide Hus kræver "sikker og etisk brug af kunstig intelligens" streng "pre-deployment test" og er skabt med "høring fra forskellige samfund, interessenter og domæneeksperter for at identificere bekymringer, risici og potentielle påvirkninger af systemet." AI-systemer bør også have "[u]afhængig evaluering og rapportering" for at sikre, at de forbliver sikre i det lange løb.

Bidens AI-bekendtgørelse

I de tidlige morgentimer den 30. oktober annoncerede Det Hvide Hus det mest omfattende lovgivningsmæssige fremstød vedrørende kunstig intelligens. At drive denne indsats var en gennemgribende bekendtgørelse (og en lækker ny hjemmeside) der dækker alt fra sikkerhed og sikkerhed til privatliv, borgerrettigheder og mere. Denne bekendtgørelse bygger på det førnævnte frivillige løfte og AI Bill of Rights, og den fokuserer overvejende på, hvad de fleste bekendtgørelser gør: mobilisering af Executive Branchs mange afdelinger og agenturer til handling.

Der er mange detaljer, der skal stryges ud af, hvordan denne bekendtgørelse vil påvirke branchen, men de mest markante takeaways for investorer er:

1. Det vil tage et stykke tid for tilsynsmyndigheder at udvikle disse nye retningslinjer og politikker.

2. Uanset hvilke specifikke regler der kommer ud af denne EO, vil det blive bygget på vaklende juridiske grunde, indtil Kongressen vedtager AI-relaterede love. Det er stadig afhængigt af frivillig overholdelse, med en stor undtagelse: Defence Production Act (DPA).

Bidens påkaldelse af DPA er lige så bemærkelsesværdig, som den er forvirrende. DPA var den eneste faktiske eksplicitte lov, som EO henviser til med nogle potentielt stærke implikationer. DPA blev senest brugt i forbindelse med Covid-19-pandemien, men er typisk forbundet med krigsproduktion. Biden bruger det her i en ren national sikkerhedskontekst:

"...bekendtgørelsen vil kræve, at virksomheder, der udvikler enhver grundmodel, der udgør en alvorlig risiko for national sikkerhed, national økonomisk sikkerhed eller national folkesundhed og sikkerhed, skal underrette den føderale regering, når de træner modellen, og skal dele resultaterne af alle røde- holdsikkerhedstest."

Det er uklart, hvem der er dækket af denne DPA-støttede "gennemgangsproces", da andre bureauer har mere specifikke regulatoriske ansvar. For eksempel skal National Institute of Standards and Technology (NIST) udvikle AI-sikkerhedsstandarder og Department of Homeland Security (DHS) er at implementere dem til kritisk infrastruktur. Det er måske endnu vigtigere, at der er behov for en afklaring af, hvilket agentur der overhovedet vil implementere denne politik.

Der er en bemærkelsesværdig kandidat, som DPA næsten helt sikkert ville dække på grund af sine eksisterende forsvarskontrakter: Palantir (NYSE:PLTR). Big Data og stadig mere AI-fokuserede forsvarsentreprenører er ikke underskriver af Det Hvide Hus's frivilligt tilsagn. Dette kan have mere at gøre med Palantir-formand Peter Thiels konservativ-libertære politiske holdninger og støtte til tidligere præsident Donald Trump end en direkte afvisning af yderligere regulering. Denne udeladelse er dog bemærkelsesværdig, da Palantir har store planer om "tager hele AI-markedet."

Samlet set er de lovgivningsmæssige rammer, der er fastsat af Bidens bekendtgørelse, banebrydende og starter Kongressen for at bygge resten af ​​det regulerende hus, så at sige.

Desværre kan vi vente et stykke tid på, at lovgivere begynder at "hælde betonen."

Hvad med kongressen?

Det Hvide Hus's AI Executive Order henviser kun to til Kongressen, men begge er opfordringer til Kongressen om at vedtage topartiske love om AI (den ene handlede eksplicit om at vedtage en privatlivslov).

Ifølge Brennan Center For Justice har Kongressen omkring 60 AI-relaterede regninger sidder i forskellige udvalg.

Men når dette skrives, er Repræsentanternes Hus netop færdig med at blive enige om en ny formand for Parlamentet og har "større fisk at stege" med endnu en forestående regeringsnedlukningsfrist og medfølgende budgetkamp på vej. For ikke at nævne omstridte Israel og Ukraine bistandsregninger og en lang række andre mere presserende bekymringer.

Det efterlader to andre kilder til AI-regler: individuelle amerikanske stater og internationale aktører. Den førstnævnte gruppe, der kun består af en håndfuld af landets 50 stater, har bestået et patchwork af relevante love, hvor AI og forbrugernes privatliv er det primære fokus. Internationalt er Kina førende med at bygge en komplekst og avanceret sæt af AI-reglerne. Den Europæiske Unions omfattende reguleringsramme, blot benævnt "AI Act," forventes afsluttet og vedtaget inden årets udgang.

AI-regler og hvad fremtiden bringer

Så hvor efterlader dette denne hurtigt voksende, potentielt meget disruptive industri? Vil det tage kryptovejen til regulering, som har været fyldt med svindel og ustabilitet? Eller den langsommere, mere stabile, men stadig ujævne cybersikkerhedssti. Nå, for nu, i det mindste i USA, vil det sandsynligvis være en blanding af de to.

AI har det disruptive og pengeskabende potentiale, som kryptoindustrien kun kan drømme om. Alligevel har den også det almindelige potentiale og nytte, som cybersikkerhedsindustrien tilbyder. For investorer, og for ikke at lyde alt for sensationelt her, for menneskeheden er det en risikabel kombination.

Der er utallige potentielle anvendelser af kunstig intelligens i den virkelige verden, fra landbrug til forsvar til finansiering og sundhedspleje. Et kryptæppetræk kunne snyde investorer for deres penge, eller en hacker kunne stjæle penge fra en bank, men risiciene fra AI-ulykker eller ondsindet adfærd kunne være katastrofal.

Hypotetikerne for, hvad der kunne gå galt, er uendelige, da AI er yderligere indarbejdet i hverdagen. Men vi ser allerede bekymrende tilfælde af ondsindet brug af kunstig intelligens. Den nylige start på Israel-Hamas-krigen har set en strøm af misinformation på sociale medieplatforme som X, tidligere Twitter. Nogle af de falske billeder, der deles online, er AI-genererede, ofte skabt med let tilgængelige værktøjer som Bings Image Generator. Med stadigt forbedret teknologi bliver det sværere at identificere falske billeder og videoer.

Vi kæmper også mod risici, der engang kun blev fundet i science fiction, som "slyngelske AI'er." Mens en AI måltidsplanlægger ved et uheld foreslået en opskrift på klorgas er nogle grin værd i dag, ville det være langt mindre humoristisk, hvis det var en AI, der f.eks. var ansvarlig for, at en storstilet automatiseret gård ved et uheld (eller værre, bevidst) forurenede en afgrøde af grøntsager.

Som man siger: "Sikkerhedsregler er skrevet med blod." Og vi burde virkelig ikke vente til blodet er blevet udgydt, før vi skrider til handling.

Juridisk er der allerede en "slædehammer" af en sag mod Google, som ifølge virksomheden ville gøre det ødelægge konceptet med generativ AI. Det, industrien har brug for for at undgå denne skæbne, er klare, håndhævede regler, der kan beskytte både offentligheden og AI-virksomheder mod hinandens juridiske vrede.

Af hensyn til investorer og for alle skal der være mere lovgivningsmæssigt tilsyn med industrien for kunstig intelligens, før noget går grueligt galt. Det Hvide Hus' nye bekendtgørelse giver en meget omfattende ramme om talrige AI-relaterede emner og er en god start. Men uden love vedtaget af Kongressen, der giver et solidt grundlag for regulatorer at bygge videre på, ender vi med et rod af forvirrede regulatorer i krypto-stil. Dette vil kun føre til forvirrede markedsdeltagere og forvirrede investorer. Og med potentialet i at AI er så stort og farligt, er det ikke noget, nogen burde ønske sig.

Så nej, AI-regler er det ikke "fjenden," som en venturekapitalists manifest udtrykte det, men de kan fungere som sikkerhedsskinner, der kan hjælpe med at beskytte industrien og investorer mod enorme risici.

Hvad investorer skal gøre nu

Uden tydelige autoværn er investering i den kunstige intelligens-verden en risikabel forretning. Investorer, der ikke er synderligt bekymrede over virkningen af ​​disse skrottede regler, kan foretage mere risikable væddemål på de mange startups, der forsøger at gøre dem rige. Eller på etablerede, men reguleringsafvisende skuespil som Palantir.

Ellers ville investorer være bedre stillet at se, hvilke virksomheder der "spiller bold" med Det Hvide Hus' frivillige løfte. Eller dem, der tilpasser sig de internationale reguleringsændringer, der kommer ud af EU og Kina. Disse virksomheder ser sandsynligvis enten disse nye regler som noget, de kan leve med, eller noget, de kan bruge til deres fordel.

Uanset hvad, vil reguleringshammeren falde på et eller andet tidspunkt. Det ville være bedst for alle, ikke kun investorer, at det falder, før den sidste halvdel af udtrykket "bevæg dig hurtigt og knæk tingene" bryder AI-industrien.

På udgivelsesdatoen havde Andrew Bush en LANG position i GOOGL- og AMZN-aktier. De meninger, der udtrykkes i denne artikel, er forfatterens, underlagt InvestorPlace.com Publishing Guidelines.

Andrew Bush er finansiel nyhedsredaktør for InvestorPlace og har to grader i internationale anliggender. Han har arbejdet i uddannelse, teknologisektoren og som forskningsanalytiker for et DC-baseret nationalt sikkerhedsfokuseret konsulentfirma.

Kilde link

#Regulering #Save #Menneskelighed #AI.. #Save #Stocks

Tidsstempel:

Mere fra CryptoInfonet