Utöver hypen lovar AI ett steg för vetenskaplig forskning

Utöver hypen lovar AI ett steg för vetenskaplig forskning

Utöver hypen, lovar AI steget för vetenskaplig forskning PlatoBlockchain Data Intelligence. Vertikal sökning. Ai.

Det senaste decenniet har sett stora framsteg i tillämpningen av artificiell intelligens för vetenskaplig upptäckt, men utövare måste veta när och hur de kan förbättra sin användning av AI och måste utmana dålig datakvalitet.

Från läkemedelsforskning, materialvetenskap, astrofysik och kärnfusion, ser forskare som använder AI resultat i förbättrad noggrannhet och minskad experimentell tid.

Publicerad i forskningstidskriften Nature idag, ett papper från ett team på 30 forskare från hela världen bedömer de framsteg som gjorts inom det mycket hypade området och förstår vad som behöver göras.

Rapporterad av Hanchen Wang, postdoktor vid Stanford Computer Science and Genentech-gruppen, påpekar uppsatsen att AI kan hjälpa till med att "optimera parametrar och funktioner, automatisera procedurer för att samla in, visualisera och bearbeta data, utforska stora utrymmen av kandidathypoteser att bilda teorier och generera hypoteser och uppskatta deras osäkerhet för att föreslå relevanta experiment."

Till exempel, inom astrofysik, en oövervakad inlärningsteknik för neurala nätverk för att sålla bort brus, har olika autokodare använts för att uppskatta gravitationsvågsdetektorparametrar baserade på förtränade svarthålsvågformsmodeller. "Denna metod är upp till sex storleksordningar snabbare än traditionella metoder, vilket gör det praktiskt att fånga transienta gravitationsvåghändelser", säger tidningen.

Ett annat exempel kommer från försök att uppnå kärnfusion. Google DeepMind-forskaren Jonas Degrave utvecklade en AI-kontroller för att reglera kärnfusion genom magnetfält i en tokamak-reaktor. Forskarna visade hur en AI-agent kunde ta realtidsmätningar av elektriska spänningsnivåer och plasmakonfigurationer för att hjälpa till att kontrollera magnetfältet och möta experimentella mål.

"[De] förstärkningsinlärningsmetoderna har visat sig vara effektiva för magnetisk kontroll av tokamakplasma, där algoritmen interagerar med tokamaksimulatorn för att optimera en policy för att styra processen", står det i tidningen.

Även om det är lovande måste tillämpningen av AI i vetenskapen leda till ett antal utmaningar för att bli mer utbredd, hävdar tidningen.

"Den praktiska implementeringen av ett AI-system involverar komplex mjukvaru- och hårdvaruteknik, som kräver en serie av ömsesidigt beroende steg som går från datakurering och bearbetning till algoritmimplementering och design av användar- och applikationsgränssnitt. Mindre variationer i implementeringen kan leda till avsevärda förändringar i prestanda och påverka framgången med att integrera AI-modeller i vetenskaplig praktik. Därför måste både data- och modellstandardisering övervägas, heter det.

Samtidigt finns det ett problem med att reproducera resultat med hjälp av AI på grund av den slumpmässiga eller stokastiska metoden för att träna modeller för djupinlärning. "Standardiserade riktmärken och experimentell design kan lindra sådana problem. En annan riktning mot att förbättra reproducerbarheten är genom initiativ med öppen källkod som släpper öppna modeller, datauppsättningar och utbildningsprogram”, tillägger forskningsartiklarna.

Den påpekar också att Big Tech har övertaget när det gäller att utveckla AI för vetenskap genom att "beräknings- och datakraven för att beräkna dessa uppdateringar är kolossala, vilket resulterar i ett stort energifotavtryck och höga beräkningskostnader."

Big Techs enorma resurser och investeringar i beräkningsinfrastruktur och molntjänster "tänjer på gränserna för skala och effektivitet."

Men högre utbildningsinstitutioner skulle kunna hjälpa sig själva med bättre integration över flera discipliner samtidigt som de utnyttjar unika historiska databaser och mättekniker som inte finns utanför sektorn.

Uppsatsen efterlyser utveckling av ett etiskt ramverk för att skydda mot felaktig tillämpning av AI i vetenskapen och bättre utbildning inom alla vetenskapliga områden.

"När AI-system närmar sig prestanda som konkurrerar med och överträffar människor, blir det möjligt att använda det som en drop-in ersättning för rutinmässigt laboratoriearbete. Detta tillvägagångssätt gör det möjligt för forskare att utveckla prediktiva modeller från experimentella data iterativt och välja experiment för att förbättra dem utan att manuellt utföra mödosamma och repetitiva uppgifter. För att stödja detta paradigmskifte växer utbildningsprogram fram för att utbilda forskare i att designa, implementera och tillämpa laboratorieautomation och AI i vetenskaplig forskning. Dessa program hjälper forskare att förstå när användningen av AI är lämplig och att förhindra feltolkade slutsatser från AI-analyser”, står det.

Tidningen noterar att uppkomsten av djupinlärning i början av 2010-talet har "avsevärt utökat omfattningen och ambitionen för dessa vetenskapliga upptäcktsprocesser."

Mindre än ett decennium senare hävdade Google DeepMind att dess AlphaFold maskininlärningsprogram snabbt förutspådde strukturen av proteiner med anständig noggrannhet, potentiellt ett steg framåt i läkemedelsupptäckten. För att den akademiska vetenskapen ska kunna tillämpa liknande tekniker inom ett brett spektrum av discipliner måste den ta sig samman för att konkurrera med Big Techs djupa fickor. ®

Tidsstämpel:

Mer från Registret