Google knuser AI-teams sammen for at få nye modeller

Google knuser AI-teams sammen for at få nye modeller

Google squashes AI teams together in push for fresh models PlatoBlockchain Data Intelligence. Vertical Search. Ai.

Google konsoliderer de forskellige teams, der arbejder på generativ AI under DeepMind-teamet i et forsøg på at accelerere udviklingen af ​​mere dygtige systemer.

Beslutningen, overleveret af CEO Sundar Pichai i torsdags, bygger på tidligere konsolideringsbestræbelser omkring AI-udvikling på Chokoladefabrikken. Sidste år kombinerede søgegiganten sit DeepMind-team og sin Brain-afdeling for at danne en gruppe, der til forveksling kaldes Google DeepMind. Dette team var i sidste ende ansvarlig for at træne modellerne bag Googles Gemini chatbot.

Pichai planlægger nu at flytte alle teams, der bygger AI-modeller, under ét tag.

"Alt dette arbejde vil nu sidde i Google DeepMind og skalere vores kapacitet til at levere dygtig AI til brugere, partnere og kunder," skrev han og tilføjede, at ændringen vil give Google Research mulighed for at fokusere mere af sin opmærksomhed på at undersøge grundlæggende og anvendt computer videnskab.

Googles såkaldte Responsible AI-team slutter sig også til DeepMind-besætningen, hvor det forventes at spille en større rolle tidligere i udviklingen af ​​nye modeller. Google siger, at det allerede har flyttet andre ansvarsgrupper under sit centrale Trust and Safety-team og planlægger at opbygge mere omfattende AI-test- og evalueringsprotokoller.

Bevægelserne blev formentlig foretaget i et forsøg på at undgå pinlige problemer, som har plaget mange tidlige generative AI-tilbud, inklusive Googles Bard og senere Gemini chatbots.

I februar blev Google tvunget til det suspendere Tvillingens tekst-til-billede-genereringsevner, efter at den ikke kunne repræsentere europæere og amerikanere nøjagtigt i specifikke historiske sammenhænge. For eksempel, når de blev bedt om at generere billeder af en tysk soldat fra 1943, ville det konsekvent generere billeder af ikke-hvide tegn.

For at undgå dette siger Pichai, at Google også "standardiserer lanceringskravene for AI-drevne funktioner og øger investeringerne i 'red team'-test for sårbarheder og bredere evalueringer for at sikre, at svarene er nøjagtige og lydhøre over for vores brugere."

Med andre ord, nu hvor Google har etableret sig som en generativ AI-sværvægter sammen med Microsoft, OpenAI og andre, kommer det til at bruge lidt mere tid på at finde måder at få sine modeller til at opføre sig forkert, før dets brugere har en chance for det.

At omgå AI-værn for at generere misbrug, giftigt eller usikkert indhold eller forslag, såsom hvordan man begår selvmord, er blevet en stort problem for modelbyggere.

Konsolideringsindsatsen strækker sig også til AI-hardwareudvikling. Ændringerne vil se platform- og økosystem- og enheds- og serviceteams kombineret i en ny gruppe kaldet platforme og enheder. Som en del af dette træk vil medarbejdere, der arbejder med computerfotografering og intelligens på enheden, også slutte sig til den kombinerede hardwaredivision.

Pichai lukkede sit notat med en advarsel til medarbejderne om at lade deres personlige vendettaer blive hjemme.

"Dette er en forretning og ikke et sted at handle på en måde, der forstyrrer kolleger eller får dem til at føle sig utrygge, for at forsøge at bruge virksomheden som en personlig platform, eller at kæmpe om forstyrrende spørgsmål eller at debattere politikker," skrev han.

Pichais kommentarer ser ud til at være i forbindelse med de 28 ansatte fyret i denne uge for at protestere over Googles forhold til den israelske regering, er vi dog ikke i tvivl om, at de også gælder for etisk minefelt feltet AI er hurtigt ved at blive. ®

Tidsstempel:

Mere fra Registret