Boffins, yapay zekayı düzenlemek için donanımla başlamanın gerektiğini savunuyor

Boffins, yapay zekayı düzenlemek için donanımla başlamanın gerektiğini savunuyor

Boffins, yapay zekayı düzenlemek için donanımla başlamanın PlatoBlockchain Veri Zekasını savunuyor. Dikey Arama. Ai.

Yapay zekanın yıkıcı potansiyelini sınırlama arayışımız kapsamında, Cambridge Üniversitesi'nden çıkan yeni bir makale, nükleer silahların izinsiz fırlatılmasını durdurmak için geliştirilenler gibi uzaktan durdurma anahtarlarının ve kilitlemelerin, ona güç veren donanıma eklenmesini önerdi.

Kağıt [PDFÇok sayıda akademik kurumdan ve OpenAI'den birkaçının görüşlerini içeren ], bu modellerin dayandığı donanımı düzenlemenin, kötüye kullanımını önlemenin en iyi yolu olabileceğini öne sürüyor.

Araştırmacılar, "Yapay zekayla ilgili bilgi işlem özellikle etkili bir müdahale noktasıdır: Tespit edilebilir, dışlanabilir ve ölçülebilirdir ve son derece yoğun bir tedarik zinciri aracılığıyla üretilir" diyor.

Bir trilyon parametreyi aştığı düşünülen en üretken modellerin eğitimi, muazzam bir fiziksel altyapı gerektirir: onbinlerce GPU veya hızlandırıcı ve haftalarca, hatta aylarca süren işlem süresi. Araştırmacılar bunun, bu kaynakların varlığını ve göreceli performansını gizlemeyi zorlaştırdığını söylüyor.

Dahası, bu modelleri eğitmek için kullanılan en gelişmiş çipler, Nvidia, AMD ve Intel gibi nispeten az sayıda şirket tarafından üretiliyor ve bu da politika yapıcıların bu ürünlerin satışını ilgili kişi veya ülkelerle sınırlamasına olanak tanıyor.

Makalede, yarı iletken üretimindeki tedarik zinciri kısıtlamaları gibi diğer faktörlerin yanı sıra bu faktörlerin, politika yapıcılara yapay zeka altyapısının nasıl ve nerede konuşlandırıldığını, kimlerin bu altyapıya erişmesine izin verilip verilmediğini daha iyi anlama ve bunun kötüye kullanılması durumunda cezalar uygulama olanağı sağladığını ileri sürüyor. .

Altyapının kontrol edilmesi

Makale, politika yapıcıların yapay zeka donanım düzenlemesine yaklaşabilecekleri çeşitli yolları vurguluyor. Yapay zeka hızlandırıcılarının görünürlüğünü artırmak ve satışını sınırlamak için tasarlananlar da dahil olmak üzere önerilerin çoğu halihazırda ulusal düzeyde uygulanıyor.

Geçen yıl ABD Başkanı Joe Biden bir öneride bulundu: icra emri büyük, çift kullanımlı yapay zeka modelleri geliştiren şirketlerin yanı sıra bu modelleri geliştirebilen altyapı sağlayıcılarını belirlemeyi amaçlıyor. onları eğitmek. Bilmiyorsanız “çift kullanım”, sivil ve askeri uygulamalarda çift görev yapabilen teknolojileri ifade ediyor.

Yakın zamanda ABD Ticaret Bakanlığı önerilen Söz konusu kişilerin veya ülkelerin ihracat kısıtlamalarını aşmasını önlemek için Amerikan bulut sağlayıcılarının daha katı "müşterini tanı" politikaları uygulamasını gerektiren düzenleme.

Araştırmacılar, bu tür bir görünürlüğün değerli olduğunu, çünkü hatalı raporların büyük miktarda balistik füze birikmesine yol açtığı füze açığı tartışmasının tetiklediği gibi başka bir silahlanma yarışının önlenmesine yardımcı olabileceğini belirtiyor. Değerli olsa da, bu raporlama gerekliliklerini yerine getirmenin müşteri gizliliğini ihlal etme riski taşıdığı ve hatta hassas verilerin sızdırılmasına yol açabileceği konusunda uyarıyorlar.

Bu arada ticaret cephesinde Ticaret Bakanlığı, adım atmak Çin'e satılan hızlandırıcıların performansını sınırlayan kısıtlamalar. Ancak daha önce de belirttiğimiz gibi bu çabalar Çin gibi ülkelerin Amerikan çiplerini ele geçirmesini zorlaştırsa da mükemmel olmaktan çok uzak.

Bu sınırlamaları gidermek için araştırmacılar, yapay zeka çip satışları için, menşe ülkelerini terk ettikten sonra bile yaşam döngüleri boyunca onları takip edecek küresel bir kayıt sistemi uygulamayı önerdiler. Uzmanlar, böyle bir kayıt defterinin her çipe benzersiz bir tanımlayıcı ekleyebileceğini ve bunun da savaşla mücadeleye yardımcı olabileceğini öne sürüyorlar. kaçakçılık bileşenleri.

Spektrumun daha uç noktasında araştırmacılar, kötü amaçlı uygulamalarda kullanılmalarını önlemek için öldürme anahtarlarının silikonun içine yerleştirilebileceğini öne sürdüler.

Teorik olarak bu, düzenleyicilerin çiplere uzaktan erişimi keserek hassas teknolojilerin kötüye kullanılmasına daha hızlı tepki vermesine olanak tanıyabilir, ancak yazarlar bunu yapmanın risksiz olmadığı konusunda uyarıyorlar. Bunun anlamı, eğer yanlış uygulanırsa böyle bir kapatma anahtarının siber suçluların hedefi haline gelebileceğidir.

Başka bir teklif, birden fazla tarafın potansiyel olarak riskli yapay zeka eğitim görevlerinin geniş ölçekte dağıtılabilmesi için imza atmasını gerektirecek. "Nükleer silahlar, izin verici eylem bağlantıları adı verilen benzer mekanizmaları kullanıyor" diye yazdılar.

Nükleer silahlar için bu güvenlik kilitleri, bir kişinin hile yapmasını ve ilk saldırıyı başlatmasını önlemek için tasarlanmıştır. Ancak yapay zeka için fikir şu: Bir kişi veya şirket, bulutta belirli bir eşiğin üzerinde bir model eğitmek istiyorsa, öncelikle bunu yapmak için yetki alması gerekir.

Güçlü bir araç olmasına rağmen araştırmacılar, bunun arzu edilen yapay zekanın gelişimini engelleyerek geri tepebileceğini gözlemliyor. Tartışma, nükleer silah kullanımının oldukça net bir sonucu olsa da yapay zekanın her zaman bu kadar siyah ve beyaz olmadığı yönünde görünüyor.

Ancak bu sizin zevkinize göre biraz fazla distopik geliyorsa, makalenin tamamı bir bölümü yapay zeka kaynaklarının bir bütün olarak toplumun iyileştirilmesi için yeniden tahsis edilmesine ayırıyor. Politika yapıcıların bir araya gelerek yapay zeka hesaplamalarını kötülük için kullanma olasılığı düşük olan gruplar için daha erişilebilir hale getirme fikri, "tahsis" olarak tanımlanan bir kavramdır.

Yapay zeka gelişimini düzenlemenin nesi yanlış?

Neden bu kadar belaya girelim? Makalenin yazarları, fiziksel donanımın kontrol edilmesinin doğası gereği daha kolay olduğunu öne sürüyor.

Makalede, donanımla karşılaştırıldığında, "Yapay zeka geliştirmenin diğer girdileri ve çıktıları (veriler, algoritmalar ve eğitilmiş modeller) kolayca paylaşılabilir, rakipsiz maddi olmayan mallardır ve doğası gereği kontrol edilmelerini zorlaştırır" yazıyor.

Tartışma, bir model açık ya da sızdırılmış olarak yayınlandıktan sonra cini tekrar şişeye koymanın ve internetteki yayılmasını durdurmanın mümkün olmadığıdır.

Araştırmacılar ayrıca modellerin kötüye kullanımını engelleme çabalarının güvenilmez olduğunun altını çizdi. Bir örnekte yazarlar, araştırmacıların Meta'nın Llama 2'sindeki, modelin saldırgan bir dil üretmesini engellemeyi amaçlayan korumaları ortadan kaldırabilme kolaylığının altını çizdiler.

Aşırıya kaçıldığında, yeterince gelişmiş bir çift kullanımlı modelin kullanımı hızlandırmak için kullanılabileceğinden korkuluyor. gelişme kimyasal veya biyolojik silahlar.

Makale, AI donanım düzenlemesinin sihirli bir değnek olmadığını ve endüstrinin diğer alanlarındaki düzenleme ihtiyacını ortadan kaldırmadığını kabul ediyor.

Ancak CEO Sam Altman'ın çalışmaları dikkate alındığında birçok OpenAI araştırmacısının katılımını göz ardı etmek zor. girişimleri AI düzenlemesi etrafındaki anlatıyı kontrol etmek. ®

Zaman Damgası:

Den fazla Kayıt