Uzman, AI'nın 3 yıl içinde biyolojik silah oluşturmaya yardımcı olacağını söylüyor

Uzman, AI'nın 3 yıl içinde biyolojik silah oluşturmaya yardımcı olacağını söylüyor

Uzman PlatoBlockchain Veri Zekası, yapay zekanın 3 yıl içinde biyolojik silahların yaratılmasına yardımcı olacağını söylüyor. Dikey Arama. Ai.

Yapay zeka sistemleri hızla gelişiyor ve bilimsel keşifleri hızlandıracak; ancak Anthropic CEO'su Dario Amodei'ye göre teknoloji aynı zamanda suçlulara iki ila üç yıl gibi kısa bir sürede biyolojik silahlar ve tehlikeli virüsler yaratma gücü de verebilir.

Eski OpenAI çalışanları tarafından kurulan Anthropic, güvenlik odaklı olmasından gurur duyuyor ve en çok geniş dil modeli (LLM) sohbet robotuyla tanınıyor Claude. Geçtiğimiz altı ay boyunca girişimin, gelecekte silah üretmek için sinir ağlarının nasıl kullanılabileceğini incelemek üzere biyogüvenlik uzmanlarıyla birlikte çalıştığı bildirildi.

Perşembe günü yapay zeka sektörünün başkanı, ABD Senatosu teknoloji alt komitesini, güçlü modellerin siber güvenlik, nükleer teknoloji, kimya ve biyoloji gibi bilim ve mühendislik alanlarında zararlı amaçlarla kötüye kullanılmasıyla mücadele etmek için düzenlemeye şiddetle ihtiyaç duyulduğu konusunda uyardı. 

"Ne yaparsak yapalım, hızlı olması gerekiyor. Ve insanların zihinlerini biyorisklere odaklamak için gerçekten 2025, 2026'yı, hatta belki 2024 şansını hedeflerdim. Yapay zeka sistemleriyle yapılabilecekleri kısıtlayan şeylerimiz mevcut değilse, biz gerçekten kötü vakit geçirmek için," diye Salı günkü duruşmada ifade verdi. 

Amodei senatörlere yaptığı açılış konuşmasında, "Bugün, biyolojinin zarar vermek amacıyla kullanılmasındaki bazı adımlar, Google'da veya ders kitaplarında bulunamayan bilgileri içermektedir ve yüksek düzeyde uzmanlık gerektirir" dedi.

"Bizim ve işbirlikçilerimizin üzerinde çalıştığı soru, mevcut yapay zeka sistemlerinin bu üretim süreçlerindeki daha zor adımlardan bazılarını doldurup dolduramayacağıdır. Günümüzün yapay zeka sistemlerinin bu adımların bazılarını tamamlayabildiğini ancak eksik ve güvenilir olmadığını gördük. Riskin ilk, yeni ortaya çıkan işaretlerini gösteriyorlar. 

“Ancak, günümüzün sistemlerinin iki ila üç yıl içinde görmeyi beklediğimiz sistemlere doğrudan bir ekstrapolasyonu, uygun korkuluklar ve hafifletici önlemler uygulanmadığı takdirde yapay zeka sistemlerinin tüm eksik parçaları doldurabileceği yönünde önemli bir risk olduğunu gösteriyor. Bu, büyük ölçekli bir biyolojik saldırı gerçekleştirebilecek teknik kapasiteye sahip aktörlerin yelpazesini büyük ölçüde genişletebilir.”

Nereden geldiğini görebiliyorsun. Modern nükleer silahların temel prensipleri kamuoyu tarafından bilinmesine ve belgelenmesine rağmen, aslında cihazların mühendisliği - yakıtın ve bunların kalbindeki diğer malzemelerin üretilmesinden, onları tetikleyen geleneksel patlayıcıların tasarlanmasına ve minyatürleştirilmesine kadar - zordur ve bazıları adımlar oldukça gizli kalıyor. Aynı şey biyolojik silahlar için de geçerli: Nispeten az sayıda insanın bildiği adımlar var ve gelecekteki bir makine öğrenimi modelinin bu boşlukları daha geniş bir kitle için doldurabilme tehlikesi var.

Zaman ölçeği dramatik görünse de, o kadar da uzak bir ihtimal değil. İnsanlar, boru bombaları ve napalm gibi silahların nasıl üretileceği, uyuşturucu tarifleri ve diğer kötü konular hakkında talimatlar isteyen sohbet robotlarına yöneldi. Botlar sözde Bu tür bilgilerin ifşa edilmesini önleyen korkuluklara sahip olmak; bunların çoğuna web aramaları veya kütüphaneler yoluyla ulaşılabilir. Ancak chatbotların bu hassas bilgileri meraklı netizenler için daha kolay erişilebilir veya anlaşılır hale getirebileceği yönünde gerçekçi bir risk var.

Bu modeller, bilimsel dergilerden ve ders kitaplarından alınan makaleler de dahil olmak üzere büyük miktarda metin üzerinde eğitilir. Daha gelişmiş hale geldikçe, keşifler (hatta tehlikeli olanlar bile) ortaya çıkarmak veya şimdiye kadar güvenlik nedenleriyle sıkı bir şekilde gizli tutulan yanıtları sağlamak için günümüzün bilgisinden içgörüler toplama konusunda daha iyi hale gelebilirler.

Nükleer bombalar yazılım olsaydı açık kaynaklı nükleer bombalara izin verir miydiniz?

Merkezi Kuzey Carolina'da bulunan Collaboration Pharmaceuticals, önceden yükseltilmiş İlaç geliştirmek için kullanılan teknolojinin aynı zamanda biyokimyasal silahlar yaratmak için de kullanılabileceğine dair endişeler var.

Yabancı düşmanlar veya teröristler bu bilgiyi büyük ölçekli saldırılar gerçekleştirmek için kullanabileceğinden Yüksek Lisans'lar bu nedenle ulusal güvenliğe yönelik potansiyel bir tehdit oluşturmaktadır. Ancak bunun yalnızca bilgi olduğunu unutmayın; aslında malzemeyi elde etmek, onu kullanmak ve bir saldırıyı gerçekleştirmek için onu işlemek zor olabilir.

Gittikçe daha güçlü hale gelen açık kaynak modellerinin piyasaya sürülmesiyle tehlikeler daha da artıyor. Senatör Richard Blumenthal (D-CT), bir grup geliştiricinin, örneğin cinsel istismar materyalleri oluşturmaya uygun bir metinden görüntüye sistemi oluşturmak için Stability AI'nin Stabil Difüzyon modellerine yönelik kodu kullandığını belirtti.

Büyükbabalardan birinden dinleyelim

Sinir ağları alanında öncü bir araştırmacı ve Montreal Öğrenme Algoritmaları Enstitüsü'nün bilimsel direktörü Yoshua Bengio da aynı görüşte. Bengio, Toronto Üniversitesi'nde bilgisayar bilimi profesörü Geoff Hinton ve Meta'nın baş yapay zeka bilimcisi Yann LeCun ile birlikte sıklıkla "Yapay Zekanın Üç Babasından" biri olarak anılıyor. 

Milletvekillerini, yapay zeka modellerinin kamuoyuna daha geniş çapta yayınlanmadan önce yeteneklerini denetleyen bir yasa çıkarmaya çağırdı. 

Bengio, "Bunun gerçekten önemli olduğunu düşünüyorum, çünkü eğer açık kaynak kodlu ve tehlikeli olabilecek bir şeyi ortaya koyarsak - ki bu açık kaynak kodun küçük bir azınlığıdır - aslında tüm kapıları kötü oyunculara açmış oluruz" dedi. duruşma sırasında söyledi. "Bu sistemler daha yetenekli hale geldikçe, kötü aktörlerin bu tür sistemlerden yararlanmak için biyolojik silahlar veya siber güvenlik konularında çok güçlü bir uzmanlığa sahip olmaları gerekmiyor."

"Hükümetin ilerlemeye devam edecek, ancak gelecekteki yayınların yayınlanmadan önce bu potansiyel açısından dikkatle değerlendirilmesini sağlayacak bir tanım bulması gerçekten önemli" diye açıkladı.

“Tüm bilimsel kariyerim boyunca açık kaynağın sadık bir savunucusu oldum. Açık kaynak bilimsel ilerleme için harikadır, ancak meslektaşım Geoff Hinton'un da söylediği gibi: Eğer nükleer bombalar bir yazılım olsaydı, açık kaynaklı nükleer bombalara izin verir miydiniz?”

Amodei, "Dağıttığınız bir modeli kontrol ettiğinizde kullanımını izleme olanağına sahip olursunuz" dedi. “Bir noktada kötüye kullanılabilir, ancak daha sonra modeli değiştirebilir, bir kullanıcının erişimini iptal edebilir, modelin yapmak istediği şeyi değiştirebilirsiniz. Bir model kontrolsüz bir şekilde piyasaya sürüldüğünde bunu yapma olanağı yoktur. Bu tamamen sizin elinizde değil.”

Meta gibi şirketler, sistemlerinin olası risklerini sınırlamaya ve geliştiricilerin bunları zararlı şekillerde kullanmasını yasaklamaya çalışsa da, bu, kötüye kullanımı önlemede çok etkili bir yöntem değildir. Bir şeyler ters giderse sorumlu kim?

Duruşmada ifade veren Berkeley'deki California Üniversitesi'nden bilgisayar bilimi profesörü Stuart Russell, "Sorumluluğun nerede olması gerektiği tam olarak belli değil" dedi.

"Nükleer benzetmeye devam edersek, eğer bir şirket süpermarketlerde bol miktarda zenginleştirilmiş uranyum satmaya karar verirse ve birisi bu zenginleştirilmiş uranyumu alıp birkaç kilo alıp bomba yapmaya karar verirse, bunun bazı sorumluluklar doğuracağını söylemez miyiz? Zenginleştirilmiş uranyumu satmaya karar veren şirkette mi ikamet ediyor?

“Üzerine 'bunun üç onsundan fazlasını tek bir yerde falan kullanmayın' diyen tavsiyelerde bulunabilirler, ancak hiç kimse bunun onları sorumluluktan kurtardığını söylemez... Açık kaynak topluluğu, bunları kullanıp kullanmadıklarını düşünmeye başlamalı. Suiistimal için olgunlaşmış şeyleri oraya koymaktan sorumlu olmalı.

Ancak açık kaynak yapay zeka topluluğunun liderleri aynı fikirde değil gibi görünüyor. Çarşamba günü GitHub, Hugging Face, Eleuther AI ve diğerleri tarafından desteklenen bir rapor yayınlandı. savundu açık kaynaklı yapay zeka projelerinin, bu kılavuzda belirtilen aynı düzenleyici incelemeye tabi tutulmaması gerektiği AB Yapay Zeka Yasası özel şirketler tarafından üretilen ürün ve hizmetler olarak.

Duruşmanın tekrarını izleyebilirsiniz okuyun🇧🇷 🇧🇷

Zaman Damgası:

Den fazla Kayıt