Vi behöver reglering för att rädda mänskligheten från AI... och för att rädda AI-aktier - CryptoInfoNet

Vi behöver reglering för att rädda mänskligheten från AI ... och för att rädda AI-aktier - CryptoInfoNet

Vi behöver reglering för att rädda mänskligheten från AI... Och för att rädda AI-aktier - CryptoInfoNet PlatoBlockchain Data Intelligence. Vertikal sökning. Ai.

Som artificiell intelligens (AI) utvecklingen satte teknologin i centrum, investerare luktar naturligtvis möjligheter i luften. De känner också lukten av de nytryckta formerna och byråkratin från regulatorn som bara väntar på att ta sitt snitt och hindra AI-innovationens rytande maskin. Men för dem som är oroliga för att Uncle Sam skulle kunna krossa branschen genom nya regler och restriktioner, skulle jag hävda att raka motsatsen är sant här: Regler kan rädda branschen från sig själv. Och i förlängningen av det skyddar fler regleringar för branschen, inte skadar, investerare. 

I de flesta nya branscher är ordet "reglering" tabu. Nu är AI-branschen inte precis ny. Det moderna konceptet går tillbaka till 1950-talet, och både privata och offentliga investeringar på området har ökat och avtagit under de senaste 70 åren eller så. 1980-talet och början av 1990-talet såg en boom-and-bust-cykel i investeringar i artificiell intelligens. Investeringar från den japanska regeringen på 80-talet kickstartade den första stora kommersiella AI-boomen. Men 1993 stängde "över 300 företag sina dörrar" när bubblan dök upp. Men moderna framsteg inom datorkraft och stora språkmodeller (LLM) har gett branschen nytt liv, och dess potential är inte bara att attrahera investerare utan också tillsynsmyndigheter.

AI-regler: En röra av intressen och risker

Frågan om vad "AI-reglering" bör eller till och med kan vara är en för politiker, beslutsfattare och etiker. Vad investerare vill veta är vad det skulle betyda för deras portföljer, naturligtvis. Vilka är de största riskerna? Och det är här lagar och förordningar kan ge visst skydd och hjälpa till att hantera dessa risker.

De största riskerna för investerare handlar om tre överlappande kärnfrågor: bedrägeri, skydd av immateriella rättigheter och integritet. Naturligtvis finns det redan lagar i böckerna som tar upp alla dessa tre frågor individuellt. Problemet är dock att AI representerar en unikt komplicerad blandning av alla tre risker som, utan tydliga ramar, lagar och regler, hotar hela branschens framsteg.

Det mest akuta bekymret på den listan för investerare är bedrägeri. Nästan alla kan hålla med om att bedrägeriförebyggande är en viktig och avgörande roll för reglering.

Bedrägliga Wire Riding Apes: Två fallstudier

Två fallstudier visar den potentiella framtiden för AI-regleringar, risken för bedrägerier och de lagstadgade tidsramar som investerare bör förvänta sig. Båda visar också hur bedrägerier kommer att forma de kommande regleringsåtgärderna.

Den första är världen av kryptovalutor och icke-fungibla tokens (NFT). En betydligt nyare bransch än AI, krypto har sett sin beskärda andel av högkonjunkturer och, viktigast av allt, bedrägerier. Securities and Exchange Commission (SEC) och Federal Trade Commission (FTC) har tillbringat ett bra decennium med att försöka ta reda på hur man kan passa in krypto i sina regulatoriska system. Kongressen har ännu inte antagit någon explicit kryptorelaterad lagstiftning trots några försök.

Under den tiden har många börser stigit och kollapsat. NFT:er gick från att vara på modet 2021 och 2022 till förlorar 95% av sitt värde, och tar med sig miljarder av investerares dollar. Ökändt, kollapsen av FTX och senaste försöket av Sam Bankman-Fried involverade miljarder dollar av bedrägligt använda medel.

Den andra fallstudien här handlar om cybersäkerhet. Till skillnad från med krypto finns det en hel del etablerade kärnlagar i böckerna för branschen. De två första "sanna" cybersäkerhetslagarna var Computer Fraud and Abuse Act från 1986 och Comprehensive Crime Control Act från 1984. Båda förlitade sig på kreativa och relativt nya förståelser av "ledningar" (som i telegrafledningar) och trådbedrägerier.

Under decennierna sedan har kongressen antagit lagar i bitar om cyberämnen med blandade resultat. Detta har resulterat i att staterna har tagit tag i släcket. Cybersäkerhetsvärlden är också ett exempel på en bransch med djupt korsande intressen, av vilka många inte skiljer sig från de risker och regulatoriska blinda fläckar som industrin för artificiell intelligens står inför. En av de mest anmärkningsvärda är integritet. Oro över individuell integritet, vanligtvis förknippad med sociala medier och Internet of Things (IoT), uppstår också med AI-träningsmodeller.

Båda exemplen här ger lärdomar för den snabbt växande AI-industrin. Kryptovärldens miljö med hög risk, hög belöning och låg reglering är full av bedrägerier och instabilitet. Cybersäkerhet är en mycket äldre och etablerad bransch, men regleringsmiljön är fortfarande ojämn, särskilt när det gäller integritet.

Aktuellt tillstånd för AI-regler

Så, för att få en uppfattning om vilka av dessa regulatoriska vägar investerare bör förvänta sig, låt oss titta på den nuvarande regulatoriska miljön för artificiell intelligens.

Börjar med den inhemska scenen, ja... det finns inte mycket, åtminstone lagstiftningsmässigt. President Joe Biden, å andra sidan, har varit upptagen med att skapa en reglerande väg via ett frivilligt löfte och, senast och viktigast, en landmärke och svepande verkställande order.

Tidigare i år tillkännagav Vita huset ett icke-bindande frivilligt löfte till "hantera riskerna med AI." Bland undertecknarna av detta löfte finns några stora namn som Amazon (NASDAQ:AMZN), Metaplattformar (NASDAQ:META), Alfabetet (NASDAQ:GOOG, NASDAQ:GOOGL) och OpenAI. Office of Science and Technology Policy (OSTP), en avdelning inom Vita huset, har också publicerat en "Blueprint för en AI Bill of Rights." Ett annat särskilt frivilligt ramverk för säker och etisk AI-användning.

Enligt Vita huset kräver "säker och etisk AI-användning" rigorösa "testning före implementering" och skapas med "samråd från olika samhällen, intressenter och domänexperter för att identifiera problem, risker och potentiella effekter av systemet." AI-system bör också ha "[o]oberoende utvärdering och rapportering" för att se till att de förblir säkra i det långa loppet.

Bidens AI Executive Order

Under de tidiga morgontimmarna den 30 oktober tillkännagav Vita huset den mest omfattande regulatoriska pushen angående AI. Att driva denna ansträngning var en svepande exekutionstitel (och en snygg ny webbplats) som täcker allt från säkerhet och säkerhet till integritet, medborgerliga rättigheter och mer. Denna verkställande order bygger på det tidigare nämnda frivilliga löftet och AI Bill of Rights, och den fokuserar övervägande på vad de flesta verkställande order gör: att mobilisera den verkställande grenens många avdelningar och byråer till handling.

Det finns många detaljer som måste strykas ut om hur denna verkställande order kommer att påverka branschen, men de viktigaste takeaways för investerare är:

1. Det kommer att ta ganska lång tid för tillsynsmyndigheter att utveckla dessa nya riktlinjer och policyer.

2. Vilka specifika regler som än kommer ut ur denna EO kommer att byggas på skakig rättslig grund tills kongressen antar AI-relaterade lagar. Det är fortfarande beroende av frivillig efterlevnad, med ett stort undantag: Defence Production Act (DPA).

Bidens åberopande av DPA är lika anmärkningsvärt som det är förvirrande. DPA var den enda faktiska explicita lagen som EO refererar till med några potentiellt kraftfulla implikationer. DPA användes senast i samband med Covid-19-pandemin men är vanligtvis förknippad med krigstidsproduktion. Biden använder det här i ett rent nationellt säkerhetssammanhang:

"...ordern kommer att kräva att företag som utvecklar någon grundmodell som utgör en allvarlig risk för nationell säkerhet, nationell ekonomisk säkerhet eller nationell folkhälsa och säkerhet måste meddela den federala regeringen när de utbildar modellen och måste dela resultaten av alla röda- teamsäkerhetstester.”

Det är oklart vem som omfattas av denna DPA-stödda "granskningsprocess" eftersom andra byråer har mer specifika regleringsansvar. Till exempel ska National Institute of Standards and Technology (NIST) utveckla AI-säkerhetsstandarder och Department of Homeland Security (DHS) är att implementera dem för kritisk infrastruktur. Det kanske ännu viktigare är att det behövs förtydliganden om vilken byrå som ens kommer att genomföra denna policy.

Det finns en anmärkningsvärd kandidat som DPA nästan definitivt skulle täcka på grund av sina befintliga försvarskontrakt: Palantir (NYSE:PLTR). Big Data och allt mer AI-fokuserad försvarsentreprenör är inte undertecknare av Vita husets frivilligt löfte. Detta kan ha mer att göra med Palantirs ordförande Peter Thiels konservativa-libertarianska politiska lutningar och stöd för den tidigare presidenten Donald Trump än ett direkt avslag på ytterligare reglering. Denna utelämnande är dock anmärkningsvärd eftersom Palantir har stora planer för "tar hela AI-marknaden."

Sammantaget är det regelverk som lagts fram av Bidens verkställande order banbrytande och startar kongressen för att bygga resten av regleringshuset, så att säga.

Tyvärr kan vi vänta ett bra tag på att lagstiftare ska börja "gjuta betongen."

Vad sägs om kongressen?

Vita husets AI Executive Order gör endast två hänvisningar till kongressen, men båda är uppmaningar till kongressen att anta tvåpartilagar om AI (den ena handlade uttryckligen om att anta en integritetslag).

Enligt Brennan Center for Justice har kongressen ungefär 60 AI-relaterade räkningar sitter i olika utskott.

Men när detta skrivs har representanthuset precis kommit överens om en ny talman i parlamentet och har "större fisk att steka" med ännu en förestående tidsfrist för regeringsavstängning och åtföljande budgetstrid som hotar. För att inte tala om kontroversiella biståndsförslag till Israel och Ukraina och en mängd andra mer angelägna problem.

Det lämnar två andra källor för AI-regleringar: enskilda amerikanska stater och internationella aktörer. Den förstnämnda gruppen, bestående av bara en handfull av landets 50 stater, har klarade ett lapptäcke av relevanta lagar, där AI och konsumenternas integritet är det primära fokus. Internationellt är Kina ledande när det gäller att bygga en komplex och avancerad uppsättning av AI-reglerna. Europeiska unionens omfattande regelverk, enkelt benämnt "AI Act," förväntas vara färdigställd och godkänd vid årets slut.

AI-föreskrifter och vad framtiden har att erbjuda

Så var lämnar detta denna snabbt växande, potentiellt mycket störande industri? Kommer det att ta kryptovägen till reglering, som har varit full av bedrägerier och instabilitet? Eller den långsammare, mer stabila men ändå ojämna cybersäkerhetsvägen. Tja, för nu, åtminstone i USA, kommer det troligen att vara en blandning av de två.

AI har den disruptiva och tjänande potentialen som kryptoindustrin bara kan drömma om. Ändå har den också den vanliga potentialen och nyttan som cybersäkerhetsindustrin erbjuder. För investerare, och för att inte låta alltför sensationellt här, för mänskligheten, är det en riskabel kombination.

Det finns otaliga potentiella verkliga tillämpningar av AI, från jordbruk till försvar till finans och hälsovård. En kryptomatta kan lura investerare på deras pengar, eller en hacker kan stjäla pengar från en bank, men riskerna från AI-olyckor eller skadligt beteende kan vara katastrofalt.

Hypotetikerna för vad som kan gå fel är oändliga eftersom AI ytterligare införlivas i vardagen. Men vi ser redan problem med skadlig användning av AI. Den senaste starten av kriget mellan Israel och Hamas har sett en flod av desinformation på sociala medieplattformar som X, tidigare Twitter. Några av de falska bilderna som delas online är AI-genererade, ofta skapade med lättillgängliga verktyg som Bings Image Generator. Med ständigt förbättrad teknik kommer det att bli svårare att identifiera falska bilder och videor.

Vi stöter också på risker som en gång bara fanns i science fiction, som "skurkiga AI: er". Medan en AI måltidsplanerare av misstag föreslår ett recept på klorgas är värt några skratt idag, skulle det vara mycket mindre humoristiskt om det var en AI som ansvarar för, säg, en storskalig automatiserad gård som av misstag (eller värre, avsiktligt) förorenar en skörd av grönsaker.

Som ordspråket säger: "Säkerhetsföreskrifter är skrivna i blod." Och vi borde verkligen inte behöva vänta tills blod har tappats innan vi vidtar åtgärder.

Juridiskt finns det redan en "slägga" av ett fall mot Google som, enligt företaget, skulle göra det förstöra konceptet med generativ AI. Vad branschen behöver för att undvika detta öde är tydliga, verkställbara regler som kan skydda både allmänheten och AI-företag från varandras juridiska vrede.

För investerarnas och för allas skull måste det finnas mer tillsyn över industrin för artificiell intelligens innan något går hemskt fel. Vita husets nya verkställande order ger ett mycket omfattande ramverk för många AI-relaterade frågor och är en bra början. Men utan lagar som antagits av kongressen som ger en solid grund för tillsynsmyndigheter att bygga vidare på, kommer vi att sluta med en röra i kryptostil av förvirrade tillsynsmyndigheter. Detta kommer bara att leda till förvirrade marknadsaktörer och förvirrade investerare. Och med potentialen hos AI som är så stor och farlig, är det inget som någon borde vilja ha.

Så nej, AI-regler är det inte "fienden," som en riskkapitalists manifest uttryckte det, men de kan fungera som skyddsräcken som kan hjälpa till att skydda branschen och investerare från enorma risker.

Vad investerare bör göra nu

Utan tydliga skyddsräcken är det en riskabel affär att investera i världen av artificiell intelligens. Investerare som inte är särskilt bekymrade över effekterna av dessa skrotade bestämmelser kan göra mer riskfyllda satsningar på mängden nystartade företag som försöker göra dem rika. Eller på etablerade men regleringsavvisande pjäser som Palantir.

Annars skulle det vara bättre för investerare att se vilka företag som "spelar boll" med Vita husets frivilliga löfte. Eller de som anpassar sig till de internationella regelförändringar som kommer ut från EU och Kina. Dessa företag ser sannolikt antingen dessa nya regler som något de kan leva med eller något de kan använda till sin fördel.

Hur som helst kommer regleringshammaren att falla någon gång. Det skulle vara bäst för alla, inte bara investerare, att det faller innan den senare hälften av uttrycket "flytta snabbt och bryt saker" bryter AI-branschen.

På publiceringsdatumet hade Andrew Bush en LONG position i GOOGL- och AMZN-aktier. De åsikter som uttrycks i den här artikeln är författarens, med förbehåll för InvestorPlace.coms riktlinjer för publicering.

Andrew Bush är finansnyhetsredaktör för InvestorPlace och har två examina i internationella frågor. Han har arbetat inom utbildning, tekniksektorn och som forskningsanalytiker för ett DC-baserat nationellt säkerhetsfokuserat konsultföretag.

Källlänk

#Reglering #Spara #Humanity #AI.. #Spara #Aktier

Tidsstämpel:

Mer från CryptoInfonet