DARPA, güveni içerecek şekilde yapay zekanın temellerini nasıl yeniden düşünmek istiyor?

DARPA, güveni içerecek şekilde yapay zekanın temellerini nasıl yeniden düşünmek istiyor?

DARPA, PlatoBlockchain Veri Zekasına güveni de içerecek şekilde yapay zekanın temellerini nasıl yeniden düşünmek istiyor? Dikey Arama. Ai.

Yorum Yap Hayatınızı bir yapay zekaya emanet eder miydiniz?

AI'nın mevcut durumu etkileyici, ancak onu genel olarak zeki olmanın sınırında görmek abartı olur. Yapay zeka patlamasının ne kadar iyi gittiğini öğrenmek istiyorsanız, şu soruyu yanıtlamanız yeterli: Yapay zekaya güveniyor musunuz?

Google'ın Bard'ı ve Microsoft'un ChatGPT destekli Bing büyük dil modelleri her ikisi de yapılmış lansman sunumları sırasında hızlı bir web aramasıyla önlenebilecek olan aptalca hatalar. LLM'ler de tespit edildi gerçekleri yanlış anlamak ve yanlış alıntıları dışarı itmek.

DARPA'dan Bilgi İnovasyon Ofisi müdür yardımcısı Matt Turek bize, bu yapay zekaların örneğin Bing veya Bard kullanıcılarını eğlendirmekten sorumlu olması bir şeydir, diyor. Hayatlar söz konusu olduğunda bu tamamen başka bir şeydir, bu nedenle Turek'in ajansı, güvenebileceğimiz bir AI sistemi oluşturmanın tam olarak ne anlama geldiği sorusunu yanıtlamaya çalışmak için AI Forward adlı bir girişim başlattı.

Güven …?

Ile yaptığı bir röportajda Kayıt, Turek, teknolojiye çok fazla güven duymayı da içeren bir inşaat mühendisliği metaforu ile güvenilir yapay zeka oluşturmayı düşünmeyi sevdiğini söyledi: Köprüler kurmak.

Turek, "Artık deneme yanılma yoluyla köprüler kurmuyoruz" diyor. "Temel fiziği, temel malzeme bilimini ve sistem mühendisliğini anlıyoruz, bu mesafeyi aşabilmem ve bu tür bir ağırlığı taşımam gerekiyor" diyor.

Turek, bu bilgiyle donanmış olarak, mühendislik sektörünün köprüler kurmayı basit ve öngörülebilir hale getiren standartlar geliştirebildiğini, ancak şu anda yapay zeka ile buna sahip olmadığımızı söylüyor. Aslında, standartlara sahip olmamaktan çok daha kötü bir durumdayız: Oluşturduğumuz yapay zeka modelleri bazen bizi şaşırtıyor ve bu kötü, diyor Turek. 

“Modelleri tam olarak anlamıyoruz. Neyi iyi yaptıklarını anlamıyoruz, köşe durumlarını, başarısızlık modlarını anlamıyoruz … bu, işlerin daha önce görmediğimiz bir hızda ve ölçekte ters gitmesine yol açabilir.” 

Reg okuyucuların yapay bir genel zekanın (AGI) insanları öldürmeye ve Turek'in amacını anlatmak için savaşmaya başladığı kıyamet senaryolarını hayal etmesine gerek yok. Turek, "İşlerin önemli ölçüde ters gitmesi için AGI'ye ihtiyacımız yok" diyor. İngiliz sterlinindeki 2016 düşüşü gibi ani piyasa çöküşlerinden bahsediyor. kötü algoritmik karar verme, bir örnek olarak. 

Sonra Tesla'nın Autopilot'u gibi bir yazılım var, görünüşte bağlantılı olduğu iddia edilen bir arabayı sürmek için tasarlanmış bir yapay zeka. Yüzde 70 artış. otomatik sürücü destek teknolojisini içeren kazaların sayısı. Turek, bu tür kazalar olduğunda Tesla'nın yapay zekayı suçlamadığını, Autopilot'un yaptıklarından sürücülerin sorumlu olduğunu söylüyor. 

Bu mantıkla, Tesla'nın bile kendi yapay zekasına güvenmediğini söylemek doğru olur. 

DARPA yapay zekayı nasıl taşımak istiyor … İleri

Turek, "Büyük ölçekli yazılım sistemlerinin çalışabilme hızı, insan gözetimi için zorluklar yaratabilir" diyor ve bu nedenle DARPA, en son AI girişimi olan AI Forward'ı başlattı. bu senenin başlarında.

İçinde sunum Şubat ayında Turek'in patronu Dr Kathleen Fisher, DARPA'nın AI Forward ile neyi başarmak istediğini, yani mühendislerin kendi standart setleriyle geliştirdiklerine benzer şekilde AI gelişimi için bu anlayış temelini oluşturmak istediğini açıkladı.

Fisher sunumunda, DARPA'nın yapay zeka güvenini bütünleştirici olarak gördüğünü ve kişinin güvenmeye değer herhangi bir yapay zekanın üç şeyi yapabilmesi gerektiğini açıkladı:

  • Yetkin bir şekilde çalışmak, ki biz kesinlikle henüz çözemedim
  • İnsanlarla uygun şekilde etkileşim kurmak, yaptığı şeyi neden yaptığını iletmek (bunun ne kadar iyi gittiğini görmek için bir önceki noktaya bakın),
  • Fisher'in söylediği gibi etik ve ahlaki davranmak, talimatların etik olup olmadığını belirleyebilmeyi ve buna göre tepki vermeyi içerir. 

Güvenilir yapay zekayı neyin tanımladığını ifade etmek bir şeydir. Oraya gitmek biraz daha fazla iş. Bu amaçla DARPA, enerjisini, zamanını ve parasını üç alan: Temel teoriler oluşturmak, uygun AI mühendislik uygulamalarını ifade etmek ve insan-AI takım çalışması ve etkileşimleri için standartlar geliştirmek. 

Turek'in bir programdan çok bir topluluk sosyal yardım girişimi olarak tanımladığı AI Forward, bu üç yapay zeka yatırımını somutlaştırmaya yardımcı olmak için kamu ve özel sektörden insanları bir araya getirmek için Haziran'da ve Temmuz sonunda bir çift yaz çalıştayı ile başlıyor. alanlar. 

Turek, DARPA'nın "birden fazla topluluktan çok çeşitli araştırmacıları [bir araya] getirme, soruna bütüncül bir bakış atma, ... ileriye dönük zorlayıcı yolları belirleme ve ardından bunu DARPA'nın öncülük edebileceğini düşündüğü yatırımlarla takip etme konusunda benzersiz bir yeteneğe sahip olduğunu" söylüyor. dönüşüm teknolojilerine doğru.”

İlk iki AI Forward çalıştayına katılmak için şapkasını yüzüğe fırlatmayı uman herkes için - üzgünüm - şimdiden dolular. Turek, orada kimin olacağına dair herhangi bir ayrıntı açıklamadı, yalnızca "çeşitli teknik altyapı [ve] bakış açıları" ile birkaç yüz katılımcının beklendiğini söyledi.

Güvenilir savunma yapay zekası neye benziyor?

DARPA, AI güven modelini geliştirmeyi başarırsa ve ne zaman başarırsa, bu teknolojiyi tam olarak nasıl kullanır? 

Turek, güvenilir bir yapay zekaya, insanların hareket edemeyeceği ölçekte ve hızda doğru kararlar alma konusunda güvenilebileceğinden, siber güvenlik uygulamalarının bariz olduğunu söylüyor. Turek, büyük dil modeli açısından, sınıflandırılmış bilgileri düzgün bir şekilde işlemek veya raporları doğru bir şekilde sindirmek ve özetlemek için güvenilebilecek bir yapay zeka inşa ediyor "eğer bu halüsinasyonları ortadan kaldırabilirsek," diye ekliyor Turek.

Ve sonra savaş alanı var. AI, yalnızca zarar vermek için kullanılan bir araç olmaktan çok, aşağıdakiler gibi araştırma girişimleri aracılığıyla hayat kurtaran uygulamalara dönüştürülebilir: Momentte, bir araştırma projesi olan Turek, zor durumlarda hızlı karar vermeyi destekler. 

In The Moment'in amacı, DARPA'nın proje sayfasında açıkladığı gibi, "dinamik ortamlarda güvenilir insan karar verme sürecinin altında yatan temel nitelikleri ve bu nitelikleri hesaplamalı olarak temsil eden" belirlemektir. 

Turek, "[In The Moment], güveni nasıl modelleyeceğiniz ve ölçeceğiniz ve güvene ve sistemlere götüren bu nitelikleri nasıl oluşturacağınız hakkında gerçekten temel bir araştırma programıdır" diyor.

Bu yeteneklerle donanmış yapay zeka, savaş alanında veya felaket senaryolarında tıbbi öncelik sıralaması kararları vermek için kullanılabilir.

DARPA, teknik incelemelerin bu yaz AI Forward toplantılarının ikisini de takip etmesini istiyor, ancak buradan itibaren tanım aşamasını geçip gerçekleştirme meselesi, ki bu kesinlikle biraz zaman alabilir. 

Turek, "Toplantılardan çıkan DARPA'dan yatırımlar olacak" diyor. "Bu yatırımların sayısı veya boyutu duyduklarımıza bağlı olacak" diye ekliyor. ®

Zaman Damgası:

Den fazla Kayıt