Jak powinny zachowywać się systemy AI i kto powinien o tym decydować?

Jak powinny zachowywać się systemy AI i kto powinien o tym decydować?

Jak powinny zachowywać się systemy AI i kto powinien o tym decydować? Inteligencja danych PlatoBlockchain. Wyszukiwanie pionowe. AI.

Realizując naszą misję, dokładamy wszelkich starań, aby dostęp do sztucznej inteligencji i AGI, korzyści z nich płynące i wpływ na nie były powszechne. Uważamy, że do osiągnięcia tych celów w kontekście zachowania systemu sztucznej inteligencji potrzebne są co najmniej trzy elementy składowe.[^zakres]

1. Popraw domyślne zachowanie. Chcemy, aby jak najwięcej użytkowników uznało nasze systemy sztucznej inteligencji za przydatne „od razu po wyjęciu z pudełka” i miało poczucie, że nasza technologia rozumie i szanuje ich wartości.

W tym celu inwestujemy w badania i inżynierię, aby zredukować zarówno rażące, jak i subtelne uprzedzenia w sposobie reagowania ChatGPT na różne dane wejściowe. W niektórych przypadkach ChatGPT obecnie odrzuca wyjścia, których nie powinien, aw niektórych przypadkach nie odrzuca, kiedy powinien. Wierzymy, że poprawa w obu aspektach jest możliwa.

Ponadto mamy miejsce na ulepszenia w innych wymiarach zachowania systemu, takich jak „zmyślanie” przez system. Informacje zwrotne od użytkowników są nieocenione przy wprowadzaniu tych ulepszeń.

2. Zdefiniuj wartości swojej sztucznej inteligencji w szerokich granicach. Wierzymy, że sztuczna inteligencja powinna być użytecznym narzędziem dla poszczególnych osób, a tym samym dostosowywalnym przez każdego użytkownika w granicach określonych przez społeczeństwo. Dlatego opracowujemy aktualizację do ChatGPT, aby umożliwić użytkownikom łatwe dostosowywanie jego zachowania.

Będzie to oznaczało dopuszczenie wyjść systemowych, z którymi inni ludzie (w tym my sami) mogą się zdecydowanie nie zgadzać. Znalezienie właściwej równowagi w tym przypadku będzie wyzwaniem – skrajne dostosowywanie byłoby ryzykowne złośliwe zastosowania naszej technologii i pochlebczych AI, które bezmyślnie wzmacniają istniejące przekonania ludzi.

Dlatego zawsze będą istniały pewne ograniczenia dotyczące zachowania systemu. Wyzwaniem jest określenie, jakie są te granice. Jeśli spróbujemy dokonać wszystkich tych ustaleń samodzielnie lub jeśli spróbujemy opracować jeden, monolityczny system sztucznej inteligencji, nie spełnimy zobowiązania, które podjęliśmy w naszej Karcie, aby „unikać nadmiernej koncentracji władzy”.

3. Publiczny wkład w wartości domyślne i twarde granice. Jednym ze sposobów uniknięcia nadmiernej koncentracji władzy jest umożliwienie ludziom, którzy używają systemów takich jak ChatGPT lub na które mają wpływ, wpływania na zasady tych systemów.

Wierzymy, że wiele decyzji dotyczących naszych niewypłacalności i twardych granic powinno być podejmowanych wspólnie, i chociaż praktyczne wdrożenie jest wyzwaniem, staramy się uwzględnić jak najwięcej perspektyw. Jako punkt wyjścia szukaliśmy zewnętrznego wkładu w naszą technologię w postaci czerwony zespół. My też niedawno zaczęliśmy zabieganie o wkład publiczny w sprawie sztucznej inteligencji w edukacji (jeden szczególnie ważny kontekst, w którym nasza technologia jest wdrażana).

Jesteśmy na wczesnym etapie pilotażowych wysiłków, aby pozyskać opinie opinii publicznej na takie tematy, jak zachowanie systemu, mechanizmy ujawniania (takie jak znak wodny) oraz szerzej nasze zasady wdrażania. Badamy również partnerstwa z organizacjami zewnętrznymi w celu przeprowadzania zewnętrznych audytów naszych wysiłków w zakresie bezpieczeństwa i polityki.

Znak czasu:

Więcej z OpenAI