Raport Stanforda na temat sztucznej inteligencji wskazuje, że dynamicznie rozwijający się przemysł znalazł się na rozdrożu

Raport Stanforda na temat sztucznej inteligencji wskazuje, że dynamicznie rozwijający się przemysł znalazł się na rozdrożu

Raport Stanforda na temat sztucznej inteligencji wskazuje, że dynamicznie rozwijający się przemysł znajduje się na rozdrożu PlatoBlockchain Data Intelligence. Wyszukiwanie pionowe. AI.

Stanford Institute for Human-Centered Artificial Intelligence (HAI) opublikował siódmy coroczny raport dotyczący AI Index, w którym przedstawiono kwitnącą branżę borykającą się z rosnącymi kosztami, przepisami i obawami społecznymi.

Strona 502 raport [PDF] pochodzi ze środowisk akademickich i przemysłowych – komitetem sterującym HAI kieruje współzałożyciel Anthropic Jack Clark i Ray Perrault, informatyk w Centrum Sztucznej Inteligencji SRI International – i dlatego nie skupia się zbytnio na spaleniu- ogniste argumenty.

W tym zakresie w raporcie zdefiniowano prywatność w taki sposób, że osoby fizyczne mają prawo wyrazić zgodę na wykorzystanie ich danych przez duże modele językowe (LLM). Nie sugeruje jednak, że firmy zajmujące się sztuczną inteligencją powinny porzucić istniejące modele, ponieważ zostały zbudowane bez pozwolenia. Sugeruje przejrzystość, a nie pokutę.

„Uzyskanie prawdziwej i świadomej zgody na gromadzenie danych szkoleniowych jest szczególnie trudne w przypadku LLM, które opierają się na ogromnych ilościach danych” – czytamy w raporcie. „W wielu przypadkach użytkownicy nie są świadomi tego, w jaki sposób wykorzystywane są ich dane i w jakim zakresie są one gromadzone. Dlatego ważne jest zapewnienie przejrzystości w zakresie praktyk gromadzenia danych.”

Wynik kilku toczących się procesów sądowych, np case przeciwko Copilot GitHub, może oznaczać, że przejrzystość nie wystarczy, że dane szkoleniowe AI wymagają wyraźnej zgody i być może wygórowanych płatności.

Zakładając jednak, że sztuczna inteligencja pozostanie na rynku i należy się z nią liczyć w jej obecnej formie, w raporcie udało się podkreślić obietnice i zagrożenia związane z zautomatyzowanym podejmowaniem decyzji.

„Naszą misją jest dostarczanie bezstronnych, rygorystycznie zweryfikowanych danych o szerokim źródle, aby decydenci, badacze, kadra kierownicza, dziennikarze i ogół społeczeństwa mogli uzyskać bardziej dogłębną i zniuansowaną wiedzę na temat złożonej dziedziny sztucznej inteligencji” – wyjaśnia raport.

Niektóre z najważniejszych ustaleń raportu nie są szczególnie zaskakujące, jak na przykład „sztuczna inteligencja pokonuje ludzi w niektórych zadaniach, ale nie we wszystkich” oraz „przemysł w dalszym ciągu dominuje w pionierskich badaniach nad sztuczną inteligencją”.

Jeśli chodzi o ten ostatni punkt, w raporcie wskazano, że przemysł stworzył 51 godnych uwagi modeli uczenia maszynowego, w porównaniu z 15 opracowanymi przez środowisko akademickie i 21 dzięki współpracy między przemysłem a środowiskiem akademickim.

Podczas gdy modele zamknięte (np. GPT-4, Gemini) przewyższały modele open source w zestawie 10 testów porównawczych AI, modele open source stają się coraz bardziej powszechne. Spośród 149 podstawowych modeli wydanych w 2023 r. 65.7% to modele typu open source w porównaniu z 44.4% w 2022 r. i 33.3% w 2021 r.

To, czy ta tendencja się utrzyma, może być powiązane z innym najważniejszym odkryciem: „Modele pionierskie stają się znacznie droższe”. Oznacza to, że jest mało prawdopodobne, aby modele open source stały się bardziej konkurencyjne w stosunku do swoich rywali o zamkniętym kodzie źródłowym, jeśli koszt wyszkolenia najnowocześniejszego modelu sztucznej inteligencji stanie się czymś, co mogą rozważyć tylko osoby posiadające dobre fundusze.

„Według szacunków AI Index średnie koszty szkolenia pionierskich modeli sztucznej inteligencji wzrosły w zeszłym roku prawie dwukrotnie” – czytamy w raporcie. „Szczególnie koszty szkolenia najnowocześniejszych modeli osiągnęły niespotykany dotąd poziom. Na przykład GPT-4 OpenAI wykorzystywał do szkolenia moc obliczeniową o wartości szacunkowej 78 milionów dolarów, podczas gdy Gemini Ultra firmy Google kosztował 191 milionów dolarów”.

Istnieją już pewne wątpliwości, czy sztuczna inteligencja jest warta swojej ceny. Styczniowe badanie przeprowadzone przez MIT CSAIL, MIT Sloan, The Productivity Institute i IBM Institute for Business Value znaleziono że „zastąpienie pracy ludzkiej sztuczną inteligencją jest uzasadnione ekonomicznie jedynie w przypadku około jednej czwartej stanowisk pracy, w których wzrok jest kluczowym elementem pracy”. I niedawny „Wall Street Journal”. raport wskazuje, że firmy technologiczne niekoniecznie znalazły sposób na opłacalność inwestycji w sztuczną inteligencję.

Stąd wszystko dodane opłaty dla usług wspomaganych sztuczną inteligencją.

Biorąc pod uwagę inne wnioski z raportu HAI, takie jak „W USA gwałtownie zaostrzają się regulacje dotyczące sztucznej inteligencji”, wydaje się, że szkolenie w zakresie modeli sztucznej inteligencji stanie się jeszcze bardziej kapitałochłonne. Z raportu wynika, że ​​w zeszłym roku w USA obowiązywało 25 przepisów związanych ze sztuczną inteligencją – w porównaniu z jednym w 2016 r. – co spowoduje dodatkowe koszty.

Kolejnym odkryciem, które może prowadzić do większej liczby przepisów, a tym samym kosztów przestrzegania przepisów, jest sposób, w jaki ludzie myślą o sztucznej inteligencji. „Ludzie na całym świecie są bardziej świadomi potencjalnego wpływu sztucznej inteligencji i są bardziej zdenerwowani” – czytamy w raporcie. Przytacza wzrost liczby osób, które uważają, że sztuczna inteligencja będzie miała wpływ na ich życie w ciągu najbliższych trzech do pięciu lat (66 procent, wzrost o sześć punktów procentowych), a także liczby osób, które denerwują się sztuczną inteligencją (52 procent, wzrost o 13 procent zwrotnica).

Kolejnym potencjalnym źródłem problemów dla firm zajmujących się sztuczną inteligencją jest brak standardów oceny programów LLM, co pozwala firmom zajmującym się sztuczną inteligencją wybierać własne punkty odniesienia do testowania. „Ta praktyka komplikuje wysiłki mające na celu systematyczne porównywanie ryzyka i ograniczeń najlepszych modeli sztucznej inteligencji” – czytamy w raporcie.

Raport HAI zakłada, że ​​sztuczna inteligencja zwiększa produktywność pracowników i przyspiesza postęp naukowy, powołując się na GNOME firmy DeepMind, „które ułatwia proces odkrywania materiałów”.

Chociaż wykazano, że automatyzacja sztucznej inteligencji zwiększa produktywność w przypadku określonych zadań, jej przydatność jako źródła pomysłów pozostaje przedmiotem dyskusji. Jak my zgłaszane ostatnio nadal panuje pewien sceptycyzm co do wartości prognoz wspomaganych sztuczną inteligencją w przypadku na przykład nowych, opłacalnych materiałów.

Tak czy inaczej, duże zakłady stawiane są na sztuczną inteligencję. Inwestycje w generatywną sztuczną inteligencję wzrosły ośmiokrotnie, z 3 miliardów dolarów w 2022 r. do 25.2 miliarda dolarów w 2023 r. Stany Zjednoczone są obecnie głównym źródłem systemów sztucznej inteligencji z 61 godnymi uwagi modelami sztucznej inteligencji w 2023 r. w porównaniu z 21 z Unii Europejskiej i 15 z Chin.

„Sztuczna inteligencja stoi przed dwiema wzajemnie powiązanymi przyszłościami” – piszą Clark i Perrault. „Po pierwsze, technologia stale się udoskonala i jest coraz częściej wykorzystywana, co ma poważne konsekwencje dla produktywności i zatrudnienia. Można go wykorzystać zarówno w dobrym, jak i złym celu. W drugiej przyszłości przyjęcie sztucznej inteligencji będzie ograniczone ograniczeniami technologii”.

W ciągu najbliższych kilku lat powinniśmy zobaczyć, która z tych dwóch przyszłości będzie dominować. ®

Znak czasu:

Więcej z Rejestr