NeurIPS 2023: Najważniejsze wnioski z zaproszonych rozmów

NeurIPS 2023: Najważniejsze wnioski z zaproszonych rozmów

Rozmowy NeurIPS 2023

Wygenerowane za pomocą Midjourney

Konferencja NeurIPS 2023, która odbyła się w tętniącym życiem Nowym Orleanie w dniach 10–16 grudnia, położyła szczególny nacisk na generatywną sztuczną inteligencję i duże modele językowe (LLM). W świetle ostatnich przełomowych osiągnięć w tej dziedzinie nie było zaskoczeniem, że tematy te zdominowały dyskusje.

Jednym z głównych tematów tegorocznej konferencji było poszukiwanie bardziej wydajnych systemów sztucznej inteligencji. Naukowcy i programiści aktywnie poszukują sposobów skonstruowania sztucznej inteligencji, która nie tylko uczy się szybciej niż obecne LLM, ale także posiada ulepszone możliwości rozumowania, zużywając przy tym mniej zasobów obliczeniowych. To dążenie ma kluczowe znaczenie w wyścigu ku osiągnięciu sztucznej inteligencji ogólnej (AGI), celu, który wydaje się coraz bardziej osiągalny w dającej się przewidzieć przyszłości.

Zaproszone prelekcje na NeurIPS 2023 były odzwierciedleniem tych dynamicznych i szybko rozwijających się zainteresowań. Prelegenci z różnych dziedzin badań nad sztuczną inteligencją podzielili się swoimi najnowszymi osiągnięciami, oferując wgląd w najnowocześniejsze osiągnięcia w dziedzinie sztucznej inteligencji. W tym artykule zagłębiamy się w te rozmowy, wydobywając i omawiając najważniejsze wnioski i wnioski, które są niezbędne do zrozumienia obecnych i przyszłych krajobrazów innowacji AI.

NextGenAI: złudzenie skalowania i przyszłość generatywnej sztucznej inteligencji 

In jego rozmowa, Björn Ommer, kierownik Computer Vision & Learning Group na Uniwersytecie Ludwiga Maximiliana w Monachium, opowiedział, jak w jego laboratorium opracowano Stable Diffusion, kilka lekcji wyciągniętych z tego procesu oraz najnowsze osiągnięcia, w tym sposób, w jaki możemy łączyć modele dyfuzji z między innymi dopasowywanie przepływu, zwiększanie wyszukiwania i przybliżenia LoRA.

modele dyfuzyjne

Najważniejsze informacje:

  • W dobie generatywnej sztucznej inteligencji przeszliśmy od skupiania się na percepcji w modelach wizyjnych (tj. rozpoznawaniu obiektów) na przewidywaniu brakujących części (np. generowaniu obrazów i wideo za pomocą modeli dyfuzyjnych).
  • Przez 20 lat wizja komputerowa skupiała się na badaniach porównawczych, co pomogło skupić się na najważniejszych problemach. W Generative AI nie mamy żadnych punktów odniesienia do optymalizacji, co otworzyło każdemu pole do podążania we własnym kierunku.
  • Modele dyfuzyjne łączą w sobie zalety poprzednich modeli generatywnych, bazując na wynikach, ze stabilną procedurą uczenia i wydajną edycją próbek, ale są drogie ze względu na długi łańcuch Markowa.
  • Wyzwanie związane z modelami o dużej wiarygodności polega na tym, że większość bitów obejmuje szczegóły ledwo dostrzegalne dla ludzkiego oka, podczas gdy kodowanie semantyki, która ma największe znaczenie, zajmuje tylko kilka bitów. Samo skalowanie nie rozwiązałoby tego problemu, ponieważ zapotrzebowanie na zasoby obliczeniowe rośnie 9 razy szybciej niż podaż GPU.
  • Sugerowanym rozwiązaniem jest połączenie zalet modeli dyfuzyjnych i sieci ConvNet, w szczególności wydajności splotów w reprezentowaniu szczegółów lokalnych i wyrazistości modeli dyfuzyjnych w kontekście dalekiego zasięgu.
  • Björn Ommer sugeruje również zastosowanie podejścia polegającego na dopasowywaniu przepływu, aby umożliwić syntezę obrazu o wysokiej rozdzielczości z małych modeli dyfuzji utajonej.
  • Innym podejściem do zwiększenia efektywności syntezy obrazu jest skupienie się na kompozycji sceny przy jednoczesnym zastosowaniu wspomagania wyszukiwania w celu wypełnienia szczegółów.
  • Na koniec przedstawił podejście iPoke do kontrolowanej stochastycznej syntezy wideo.

Jeśli ta szczegółowa treść jest dla Ciebie przydatna, zapisz się na naszą listę mailingową AI zostać powiadomionym, gdy wydamy nowy materiał. 

Wiele twarzy odpowiedzialnej sztucznej inteligencji 

In jej prezentacjaLora Aroyo, badacz w Google Research, podkreśliła kluczowe ograniczenie tradycyjnych podejść do uczenia maszynowego: poleganie na binarnych kategoryzacjach danych jako przykładach pozytywnych lub negatywnych. Jej zdaniem to nadmierne uproszczenie pomija złożoną subiektywność nieodłącznie związaną ze scenariuszami i treściami ze świata rzeczywistego. Poprzez różne przypadki użycia Aroyo pokazał, jak niejednoznaczność treści i naturalne różnice w ludzkich punktach widzenia często prowadzą do nieuniknionych nieporozumień. Podkreśliła znaczenie traktowania tych nieporozumień jako znaczących sygnałów, a nie zwykłego szumu.

odpowiedzialna sztuczna inteligencja

Oto najważniejsze wnioski z rozmowy:

  • Nieporozumienia między ludzkimi laborantami mogą być produktywne. Zamiast traktować wszystkie odpowiedzi jako poprawne lub błędne, Lora Aroyo wprowadziła „prawdę przez niezgodę”, podejście oparte na prawdzie dystrybucyjnej do oceny wiarygodności danych poprzez wykorzystanie różnicy zdań oceniających.
  • Jakość danych jest trudna nawet w przypadku ekspertów, ponieważ eksperci nie zgadzają się z nimi w takim samym stopniu, jak laboranci. Te nieporozumienia mogą dostarczyć znacznie więcej informacji niż odpowiedzi pojedynczego eksperta.
    • W przypadku zadań związanych z oceną bezpieczeństwa eksperci nie zgadzają się co do 40% przykładów. Zamiast próbować rozwiązać te nieporozumienia, musimy zebrać więcej takich przykładów i wykorzystać je do ulepszenia modeli i wskaźników oceny.
  • Swoje zaprezentowała także Lora Aroyo Bezpieczeństwo dzięki różnorodności metoda analizy danych pod kątem tego, co w nich jest i kto je opisał.
    • Dzięki tej metodzie uzyskano porównawczy zbiór danych charakteryzujący się zmiennością ocen bezpieczeństwa LLM w różnych grupach demograficznych osób oceniających (w sumie 2.5 miliona ocen).
    • W przypadku 20% rozmów trudno było zdecydować, czy odpowiedź chatbota była bezpieczna, czy niebezpieczna, ponieważ mniej więcej równa liczba respondentów określiła je jako bezpieczne lub niebezpieczne.
  • Różnorodność oceniających i danych odgrywa kluczową rolę w ocenie modeli. Nieuwzględnienie szerokiego zakresu ludzkich punktów widzenia i niejednoznaczności występującej w treści może utrudnić dostosowanie wydajności uczenia maszynowego do rzeczywistych oczekiwań.
  • 80% wysiłków związanych z bezpieczeństwem sztucznej inteligencji jest już całkiem dobrych, ale pozostałe 20% wymaga podwojenia wysiłków, aby zająć się przypadkami brzegowymi i wszystkimi wariantami w nieskończonej przestrzeni różnorodności.

Statystyki spójności, własne doświadczenia i dlaczego młodzi ludzie są znacznie mądrzejsi od obecnej sztucznej inteligencji 

In jej rozmowaLinda Smith, wybitna profesor na Uniwersytecie Indiana w Bloomington, zbadała temat niedoboru danych w procesach uczenia się niemowląt i małych dzieci. Skupiła się szczególnie na rozpoznawaniu obiektów i uczeniu się imion, zagłębiając się w to, w jaki sposób statystyki samodzielnie generowanych doświadczeń przez niemowlęta oferują potencjalne rozwiązania problemu rzadkości danych.

Najważniejsze informacje:

  • W wieku trzech lat dzieci rozwinęły umiejętność jednorazowego uczenia się w różnych dziedzinach. W niecałe 16,000 1,000 godzin przed czwartymi urodzinami udaje im się nauczyć ponad XNUMX kategorii obiektów, opanować składnię swojego języka ojczystego oraz wchłonąć kulturowe i społeczne niuanse swojego otoczenia.
  • Dr Linda Smith i jej zespół odkryli trzy zasady ludzkiego uczenia się, które pozwalają dzieciom wychwycić tak wiele z tak skąpych danych:
    • Uczniowie kontrolują wkład, z chwili na chwilę kształtują i porządkują wkład. Na przykład w ciągu pierwszych kilku miesięcy życia dzieci częściej patrzą na przedmioty o prostych krawędziach.
    • Ponieważ dzieci stale rozwijają swoją wiedzę i możliwości, realizują bardzo ograniczony program nauczania. Dane, z którymi mają do czynienia, są zorganizowane w niezwykle istotny sposób. Na przykład dzieci do 4 miesiąca życia najwięcej czasu spędzają na patrzeniu na twarze, około 15 minut na godzinę, podczas gdy dzieci powyżej 12 miesiąca życia skupiają się przede wszystkim na dłoniach, obserwując je przez około 20 minut na godzinę.
    • Epizody uczenia się składają się z serii wzajemnie powiązanych doświadczeń. Korelacje przestrzenne i czasowe tworzą spójność, co z kolei ułatwia tworzenie trwałych wspomnień z jednorazowych wydarzeń. Na przykład, gdy dzieci otrzymują losowy asortyment zabawek, często skupiają się na kilku „ulubionych” zabawkach. Angażują się w te zabawki, używając powtarzalnych wzorów, co pomaga w szybszej nauce obiektów.
  • Wspomnienia przejściowe (robocze) trwają dłużej niż bodźce zmysłowe. Właściwości usprawniające proces uczenia się obejmują multimodalność, skojarzenia, relacje predykcyjne i aktywację wspomnień z przeszłości.
  • Do szybkiego uczenia się potrzebny jest sojusz pomiędzy mechanizmami generującymi dane i mechanizmami, które się uczą.
uczące się niemowlęta

Szkicowanie: podstawowe narzędzia, wspomaganie uczenia się i odporność adaptacyjna 

Jelani Nelson, profesor inżynierii elektrycznej i informatyki na Uniwersytecie Kalifornijskim w Berkeley, wprowadził koncepcję „szkiców” danych – skompresowana w pamięci reprezentacja zbioru danych, która nadal umożliwia odpowiadanie na przydatne zapytania. Chociaż wykład miał charakter dość techniczny, zapewnił doskonały przegląd niektórych podstawowych narzędzi do szkicowania, w tym najnowszych osiągnięć.

Kluczowe wnioski:

  • CountSketch, podstawowe narzędzie do szkicowania, zostało po raz pierwszy wprowadzone w 2002 roku, aby rozwiązać problem „ciężkich graczy” i zgłosić małą listę najczęściej występujących elementów z danego strumienia elementów. CountSketch był pierwszym znanym algorytmem subliniowym zastosowanym do tego celu.
  • Dwa niestrumieniowe zastosowania ciężkich zawodników obejmują:
    • Metoda oparta na punktach wewnętrznych (IPM), która daje asymptotycznie najszybszy znany algorytm programowania liniowego.
    • Metoda HyperAttention, która pozwala sprostać wyzwaniom obliczeniowym wynikającym z rosnącej złożoności długich kontekstów stosowanych w LLM.
  • Wiele ostatnich prac skupiało się na projektowaniu szkiców odpornych na interakcję adaptacyjną. Główną ideą jest wykorzystanie wniosków z adaptacyjnej analizy danych.

Poza panelem skalowania 

To zdjęcie świetny panel na temat dużych modeli językowych moderował Alexander Rush, profesor nadzwyczajny w Cornell Tech i badacz w Hugging Face. Pozostali uczestnicy to:

  • Aakanksha Chowdhery – pracownik naukowy w Google DeepMind, zainteresowany badaniami w zakresie systemów, szkolenia wstępnego LLM i multimodalności. Była częścią zespołu opracowującego PaLM, Gemini i Pathways.
  • Angela Fan – naukowiec w Meta Generative AI, zajmująca się badaniami nad wyrównaniem, centrami danych i wielojęzycznością. Brała udział w rozwoju Llama-2 i Meta AI Assistant.
  • Percy Liang – profesor na Uniwersytecie Stanforda zajmujący się badaniami nad twórcami, oprogramowaniem open source i agentami generatywnymi. Jest dyrektorem Centrum Badań nad Modelami Podstawowymi (CRFM) na Uniwersytecie Stanforda i założycielem Together AI.

Dyskusja skupiała się na czterech kluczowych tematach: (1) architektura i inżynieria, (2) dane i dopasowanie, (3) ocena i przejrzystość oraz (4) twórcy i współpracownicy.

Oto niektóre wnioski z tego panelu:

  • Szkolenie obecnych modeli językowych nie jest z natury trudne. Głównym wyzwaniem w szkoleniu modelu takiego jak Llama-2-7b są wymagania infrastrukturalne i potrzeba koordynacji między wieloma procesorami graficznymi, centrami danych itp. Jeśli jednak liczba parametrów jest wystarczająco mała, aby umożliwić szkolenie na pojedynczym procesorze graficznym, poradzi sobie z tym nawet student.
  • Chociaż modele autoregresyjne są zwykle używane do generowania tekstu, a modele dyfuzji do generowania obrazów i filmów, prowadzono eksperymenty mające na celu odwrócenie tych podejść. W szczególności w projekcie Gemini do generowania obrazu wykorzystano model autoregresyjny. Podjęto również próby wykorzystania modeli dyfuzji do generowania tekstu, ale nie okazały się one jeszcze wystarczająco skuteczne.
  • Biorąc pod uwagę ograniczoną dostępność anglojęzycznych danych na temat modeli szkoleniowych, badacze badają podejścia alternatywne. Jedną z możliwości jest szkolenie modeli multimodalnych na podstawie kombinacji tekstu, wideo, obrazów i dźwięku, przy założeniu, że umiejętności nabyte w ramach tych alternatywnych modalności mogą zostać przeniesione na tekst. Inną opcją jest wykorzystanie danych syntetycznych. Należy zauważyć, że dane syntetyczne często łączą się z danymi rzeczywistymi, ale integracja ta nie jest przypadkowa. Tekst publikowany w Internecie jest zazwyczaj poddawany selekcji i edycji przez człowieka, co może dodać dodatkową wartość do szkolenia modeli.
  • Modele o otwartym fundamencie są często postrzegane jako korzystne dla innowacji, ale potencjalnie szkodliwe dla bezpieczeństwa sztucznej inteligencji, ponieważ mogą zostać wykorzystane przez złośliwe podmioty. Jednak dr Percy Liang twierdzi, że modele otwarte również pozytywnie wpływają na bezpieczeństwo. Twierdzi, że dzięki swojej dostępności zapewniają większej liczbie badaczy możliwości prowadzenia badań nad bezpieczeństwem sztucznej inteligencji i przeglądu modeli pod kątem potencjalnych luk w zabezpieczeniach.
  • Obecnie dodawanie adnotacji do danych wymaga znacznie większej wiedzy specjalistycznej w dziedzinie adnotacji w porównaniu do pięciu lat temu. Jeśli jednak w przyszłości asystenci AI będą działać zgodnie z oczekiwaniami, otrzymamy od użytkowników cenniejsze dane zwrotne, co zmniejszy zależność od obszernych danych od komentatorów.

​Systemy dla modeli fundamentów i modele fundamentów dla systemów 

In ta rozmowaChristopher Ré, profesor nadzwyczajny na Wydziale Informatyki Uniwersytetu Stanforda, pokazuje, jak modele podstawowe zmieniły budowane przez nas systemy. Bada także, jak efektywnie budować modele podstawowe, czerpiąc wiedzę z badań nad systemami baz danych i omawia potencjalnie bardziej wydajne architektury modeli podstawowych niż Transformer.

modele podstawowe do czyszczenia danych

Oto najważniejsze wnioski z tej rozmowy:

  • Modele podstawowe skutecznie radzą sobie z problemami typu „śmierć przez 1000 cięć”, w których każde pojedyncze zadanie może być stosunkowo proste, ale sam zakres i różnorodność zadań stanowi poważne wyzwanie. Dobrym przykładem jest problem czyszczenia danych, który LLM może teraz pomóc rozwiązać znacznie efektywniej.
  • W miarę jak akceleratory stają się coraz szybsze, pamięć często staje się wąskim gardłem. Jest to problem, którym badacze baz danych zajmują się od dziesięcioleci i możemy przyjąć niektóre z ich strategii. Na przykład podejście Flash Attention minimalizuje przepływy wejścia-wyjścia poprzez blokowanie i agresywną fuzję: za każdym razem, gdy uzyskujemy dostęp do informacji, wykonujemy na niej tyle operacji, ile to możliwe.
  • Istnieje nowa klasa architektur, oparta na przetwarzaniu sygnałów, która może być bardziej wydajna niż model Transformer, szczególnie w obsłudze długich sekwencji. Przetwarzanie sygnału zapewnia stabilność i wydajność, kładąc podwaliny pod innowacyjne modele, takie jak S4.

Uczenie się przez Internet ze wzmocnieniem w cyfrowych interwencjach zdrowotnych 

In jej rozmowa, Susan Murphy, profesor statystyki i informatyki na Uniwersytecie Harvarda, podzieliła się pierwszymi rozwiązaniami niektórych wyzwań, jakie stoją przed nimi przy opracowywaniu internetowych algorytmów RL do wykorzystania w cyfrowych interwencjach zdrowotnych.

Oto kilka wniosków z prezentacji:

  • Doktor Susan Murphy omówiła dwa projekty, nad którymi pracowała:
    • HeartStep, w którym sugerowane są działania na podstawie danych ze smartfonów i urządzeń śledzących do noszenia, oraz
    • Oralytics do coachingu zdrowia jamy ustnej, gdzie interwencje opierały się na danych dotyczących zaangażowania otrzymanych z elektronicznej szczoteczki do zębów.
  • Opracowując politykę zachowania agenta AI, badacze muszą zadbać o to, aby była ona autonomiczna i możliwa do wdrożenia w szerszym systemie opieki zdrowotnej. Oznacza to zapewnienie, że czas wymagany na zaangażowanie danej osoby jest rozsądny, a zalecane działania są zarówno uzasadnione etycznie, jak i wiarygodne z naukowego punktu widzenia.
  • Główne wyzwania związane z opracowaniem agenta RL do cyfrowych interwencji zdrowotnych obejmują radzenie sobie z wysokim poziomem hałasu, ponieważ ludzie prowadzą swoje życie i nie zawsze są w stanie odpowiedzieć na komunikaty, nawet jeśli chcą, a także radzenie sobie z silnymi, opóźnionymi negatywnymi skutkami .

Jak widać, NeurIPS 2023 zapewnił pouczający wgląd w przyszłość sztucznej inteligencji. Zaproszone prelekcje uwydatniły tendencję w kierunku bardziej wydajnych, świadomych zasobów modeli i eksploracji nowatorskich architektur wykraczających poza tradycyjne paradygmaty.

Podoba ci się ten artykuł? Zarejestruj się, aby otrzymywać więcej aktualizacji badań AI.

Damy Ci znać, gdy wydamy więcej artykułów podsumowujących takich jak ten.

#gform_wrapper_11[data-form-index=”0″].gform-theme,[data-parent-form=”11_0″]{–gform-theme-color-primary: #204ce5;–gform-theme-color-primary-rgb: 32, 76, 229;–gform-theme-color-primary-contrast: #fff;–gform-theme-color-primary-contrast-rgb: 255, 255, 255;–gform-theme-color-primary-darker: #001AB3;–gform-theme-color-primary-lighter: #527EFF;–gform-theme-color-secondary: #fff;–gform-theme-color-secondary-rgb: 255, 255, 255;–gform-theme-color-secondary-contrast: #112337;–gform-theme-color-secondary-contrast-rgb: 17, 35, 55;–gform-theme-color-secondary-darker: #F5F5F5;–gform-theme-color-secondary-lighter: #FFFFFF;–gform-theme-color-outside-control-light: rgba(17, 35, 55, 0.1);–gform-theme-color-outside-control-light-rgb: 17, 35, 55;–gform-theme-color-outside-control-light-darker: rgba(104, 110, 119, 0.35);–gform-theme-color-outside-control-light-lighter: #F5F5F5;–gform-theme-color-outside-control-dark: #585e6a;–gform-theme-color-outside-control-dark-rgb: 88, 94, 106;–gform-theme-color-outside-control-dark-darker: #112337;–gform-theme-color-outside-control-dark-lighter: rgba(17, 35, 55, 0.65);–gform-theme-color-inside-control: #fff;–gform-theme-color-inside-control-rgb: 255, 255, 255;–gform-theme-color-inside-control-contrast: #112337;–gform-theme-color-inside-control-contrast-rgb: 17, 35, 55;–gform-theme-color-inside-control-darker: #F5F5F5;–gform-theme-color-inside-control-lighter: #FFFFFF;–gform-theme-color-inside-control-primary: #204ce5;–gform-theme-color-inside-control-primary-rgb: 32, 76, 229;–gform-theme-color-inside-control-primary-contrast: #fff;–gform-theme-color-inside-control-primary-contrast-rgb: 255, 255, 255;–gform-theme-color-inside-control-primary-darker: #001AB3;–gform-theme-color-inside-control-primary-lighter: #527EFF;–gform-theme-color-inside-control-light: rgba(17, 35, 55, 0.1);–gform-theme-color-inside-control-light-rgb: 17, 35, 55;–gform-theme-color-inside-control-light-darker: rgba(104, 110, 119, 0.35);–gform-theme-color-inside-control-light-lighter: #F5F5F5;–gform-theme-color-inside-control-dark: #585e6a;–gform-theme-color-inside-control-dark-rgb: 88, 94, 106;–gform-theme-color-inside-control-dark-darker: #112337;–gform-theme-color-inside-control-dark-lighter: rgba(17, 35, 55, 0.65);–gform-theme-border-radius: 3px;–gform-theme-font-size-secondary: 14px;–gform-theme-font-size-tertiary: 13px;–gform-theme-icon-control-number: url(“data:image/svg+xml,%3Csvg width=’8′ height=’14’ viewBox=’0 0 8 14′ fill=’none’ xmlns=’http://www.w3.org/2000/svg’%3E%3Cpath fill-rule=’evenodd’ clip-rule=’evenodd’ d=’M4 0C4.26522 5.96046e-08 4.51957 0.105357 4.70711 0.292893L7.70711 3.29289C8.09763 3.68342 8.09763 4.31658 7.70711 4.70711C7.31658 5.09763 6.68342 5.09763 6.29289 4.70711L4 2.41421L1.70711 4.70711C1.31658 5.09763 0.683417 5.09763 0.292893 4.70711C-0.0976311 4.31658 -0.097631 3.68342 0.292893 3.29289L3.29289 0.292893C3.48043 0.105357 3.73478 0 4 0ZM0.292893 9.29289C0.683417 8.90237 1.31658 8.90237 1.70711 9.29289L4 11.5858L6.29289 9.29289C6.68342 8.90237 7.31658 8.90237 7.70711 9.29289C8.09763 9.68342 8.09763 10.3166 7.70711 10.7071L4.70711 13.7071C4.31658 14.0976 3.68342 14.0976 3.29289 13.7071L0.292893 10.7071C-0.0976311 10.3166 -0.0976311 9.68342 0.292893 9.29289Z’ fill=’rgba(17, 35, 55, 0.65)’/%3E%3C/svg%3E”);–gform-theme-icon-control-select: url(“data:image/svg+xml,%3Csvg width=’10’ height=’6′ viewBox=’0 0 10 6′ fill=’none’ xmlns=’http://www.w3.org/2000/svg’%3E%3Cpath fill-rule=’evenodd’ clip-rule=’evenodd’ d=’M0.292893 0.292893C0.683417 -0.097631 1.31658 -0.097631 1.70711 0.292893L5 3.58579L8.29289 0.292893C8.68342 -0.0976311 9.31658 -0.0976311 9.70711 0.292893C10.0976 0.683417 10.0976 1.31658 9.70711 1.70711L5.70711 5.70711C5.31658 6.09763 4.68342 6.09763 4.29289 5.70711L0.292893 1.70711C-0.0976311 1.31658 -0.0976311 0.683418 0.292893 0.292893Z’ fill=’rgba(17, 35, 55, 0.65)’/%3E%3C/svg%3E”);–gform-theme-icon-control-search: url(“data:image/svg+xml,%3Csvg version=’1.1′ xmlns=’http://www.w3.org/2000/svg’ width=’640′ height=’640’%3E%3Cpath d=’M256 128c-70.692 0-128 57.308-128 128 0 70.691 57.308 128 128 128 70.691 0 128-57.309 128-128 0-70.692-57.309-128-128-128zM64 256c0-106.039 85.961-192 192-192s192 85.961 192 192c0 41.466-13.146 79.863-35.498 111.248l154.125 154.125c12.496 12.496 12.496 32.758 0 45.254s-32.758 12.496-45.254 0L367.248 412.502C335.862 434.854 297.467 448 256 448c-106.039 0-192-85.962-192-192z’ fill=’rgba(17, 35, 55, 0.65)’/%3E%3C/svg%3E”);–gform-theme-control-border-color: #686e77;–gform-theme-control-size: var(–gform-theme-control-size-md);–gform-theme-control-label-color-primary: #112337;–gform-theme-control-label-color-secondary: #112337;–gform-theme-control-choice-size: var(–gform-theme-control-choice-size-md);–gform-theme-control-checkbox-check-size: var(–gform-theme-control-checkbox-check-size-md);–gform-theme-control-radio-check-size: var(–gform-theme-control-radio-check-size-md);–gform-theme-control-button-font-size: var(–gform-theme-control-button-font-size-md);–gform-theme-control-button-padding-inline: var(–gform-theme-control-button-padding-inline-md);–gform-theme-control-button-size: var(–gform-theme-control-button-size-md);–gform-theme-control-button-border-color-secondary: #686e77;–gform-theme-control-file-button-background-color-hover: #EBEBEB;–gform-theme-field-page-steps-number-color: rgba(17, 35, 55, 0.8);}

Znak czasu:

Więcej z TOPBOTY