Az OpenAI azt állítja, hogy a számításokat a „gazember” mesterséges intelligencia megállítására szánja

Az OpenAI azt állítja, hogy a számításokat a „gazember” mesterséges intelligencia megállítására szánja

OpenAI says it is dedicating compute to stopping 'rogue' AI PlatoBlockchain Data Intelligence. Vertical Search. Ai.

Az OpenAI azt állítja, hogy számítási erőforrásainak egyötödét gépi tanulási technikák fejlesztésére fordítja, hogy megállítsák a szuperintelligens rendszerek „csalódását”.

A 2015-ben alapított San Francisco AI startup kinyilvánított célja mindig is az általános mesterséges intelligencia biztonságos fejlesztése volt. A technológia még nem létezik – és a szakértők megoszlanak a tekintetben, hogy ez pontosan hogyan is nézne ki, és mikor érkezhet meg.

Ennek ellenére az OpenAI 20 százalékot kíván lefaragni feldolgozó kapacitásából, és új egységet indít – Ilya Sutskever társalapítója és vezető tudósa vezetésével –, hogy valamilyen módon, valahogyan megakadályozza, hogy a jövő generációs gépei veszélybe sodorják az emberiséget. Ez egy tárgy Az OpenAI korábban is felvetette.

„A szuperintelligencia lesz az emberiség által valaha feltalált leghatásosabb technológia, és segíthet megoldani a világ számos legfontosabb problémáját” – mondta a faj leendő megmentője. vélekedett ezen a héten.

"A szuperintelligencia hatalmas ereje azonban nagyon veszélyes is lehet, és az emberiség hatalmának elvesztéséhez vagy akár az emberiség kihalásához is vezethet."

Az OpenAI úgy véli, hogy ebben az évtizedben olyan számítógépes rendszereket fejleszthetnek ki, amelyek képesek felülmúlni az emberi intelligenciát és legyőzni az emberi fajt [Fúzió előtt vagy után? Vagy kvantumszámítás? – Szerk.].

„E kockázatok kezeléséhez többek között új intézményekre lesz szükség a kormányzáshoz és a szuperintelligencia-összehangolás problémájának megoldásához: hogyan biztosíthatjuk, hogy az embernél sokkal okosabb mesterséges intelligencia rendszerek az emberi szándékot kövessék?” – tette hozzá a biz. 

Ha már az OpenAI-ról beszélünk…

  • A Microsoft által bankrollált startup elkészítette a GPT-4 API-ját általában elérhető fizető fejlesztőknek.
  • A CompSci professzora és Emily Bender ML szakértő esszét írt az AI-modellek valós fenyegetéseiről, szemben az emberfeletti AI-tól való félelemmel, amelyet bizonyos sarkok szorongatnak.

Már léteznek módszerek arra, hogy a modelleket az emberi értékekhez igazítsák – vagy legalábbis megpróbálják igazítani –. Ezek a technikák magukban foglalhatják az Emberi visszajelzésekből történő megerősítéses tanulást, vagy RLHF. Ezzel a megközelítéssel alapvetően felügyeli a gépeket, hogy úgy alakítsa őket, hogy jobban viselkedjenek, mint egy ember.

Bár az RLHF segített abban, hogy az olyan rendszerek, mint a ChatGPT, kevésbé legyenek hajlamosak a mérgező nyelvezet generálására, továbbra is torzításokat okozhat, és nehéz skálázni. Ez általában azt jelenti, hogy nagy tömegű, nem túl magas fizetésű embert kell toborozni, hogy visszajelzést adhassunk a modell eredményeiről – ennek a gyakorlatnak megvannak a maga problémái.

Állítások szerint a fejlesztők nem bízhatnak néhány emberben egy olyan technológia felügyeletében, amely sokakat érint. Az OpenAI igazítási csapata egy „nagyjából emberi szintű automatizált igazításkutató” felépítésével próbálja megoldani ezt a problémát. Az OpenAI ember helyett olyan mesterséges intelligencia rendszert szeretne építeni, amely képes más gépeket is az emberi értékekhez igazítani anélkül, hogy kifejezetten az emberekre támaszkodna. 

Ez azt jelenti, hogy a mesterséges intelligencia arra tanítja a mesterséges intelligenciát, hogy jobban hasonlítson a nem mesterséges intelligenciához, úgy tűnik számunkra. Kicsit csirke-tojás érzés.

Egy ilyen rendszer például megkeresheti a problémás viselkedést és visszajelzést adhat, vagy más lépéseket tehet annak kijavítására. A rendszer teljesítményének tesztelésére az OpenAI azt mondta, hogy szándékosan betaníthatja a rosszul igazított modelleket, és megnézheti, hogy az igazítási mesterséges intelligencia mennyire képes megtisztítani a rossz viselkedést. Az új csapat azt a célt tűzte ki maga elé, hogy négy év alatt megoldja az összehangolási problémát. 

„Bár ez egy hihetetlenül ambiciózus cél, és nem garantált a sikerünk, optimisták vagyunk abban, hogy egy összpontosított, összehangolt erőfeszítés megoldhatja ezt a problémát. Sok olyan ötlet van, amely ígéretesnek bizonyult az előzetes kísérletekben, egyre hasznosabb mérőszámaink vannak az előrehaladáshoz, és a mai modellek segítségével sok ilyen problémát empirikusan is tanulmányozhatunk” – fejezte be a csapat.

„A probléma megoldása magában foglalja a bizonyítékok és érvek benyújtását, amelyek meggyőzik a gépi tanulási és biztonsági közösséget arról, hogy a probléma megoldódott. Ha nem bízunk nagyon magas szinten a megoldásainkban, akkor reméljük, hogy eredményeink lehetővé teszik számunkra és a közösség számára a megfelelő tervezést.”

Most elkezdjük építeni a bunkerünket. ®

Időbélyeg:

Még több A regisztráció