Taslak AB AI Yasası düzenlemeleri, açık kaynaklı yazılım PlatoBlockchain Veri Zekası üzerinde caydırıcı bir etkiye sahip olabilir. Dikey Arama. Ai.

Taslak AB AI Yasası düzenlemeleri, açık kaynaklı yazılımlar üzerinde caydırıcı bir etkiye sahip olabilir

Kısaca Amerikan düşünce kuruluşu Brookings'e göre, Avrupa Birliği tarafından AI'yı düzenlemeyi amaçlayan yeni kurallar, geliştiricilerin açık kaynaklı modeller yayınlamasını engelleyebilir.

The önerilen Henüz yasalaşmamış olan AB AI Yasası, açık kaynak geliştiricilerinin AI yazılımlarının doğru, güvenli ve açık teknik belgelerde risk ve veri kullanımı konusunda şeffaf olmasını sağlamaları gerektiğini belirtir. 

Brookings savunuyor özel bir şirket kamu modeli dağıtacak veya bir üründe kullanacaksa ve modelin bazı öngörülemeyen veya kontrol edilemeyen etkileri nedeniyle bir şekilde başı belaya girerse, şirket muhtemelen açık kaynak geliştiricilerini suçlamaya ve onları dava etmeye çalışacaktır. . 

Açık kaynak topluluğunu kodlarını yayınlama konusunda iki kez düşünmeye zorlayabilir ve ne yazık ki yapay zekanın gelişiminin özel şirketler tarafından yönlendirileceği anlamına gelir. Tescilli kodun analiz edilmesi ve üzerine inşa edilmesi zordur, bu da inovasyonun engelleneceği anlamına gelir.

Allen Yapay Zeka Enstitüsü'nün eski CEO'su Oren Etzioni, açık kaynak geliştiricilerinin özel şirketlerdeki yazılım mühendisleriyle aynı katı kurallara tabi olmaması gerektiğini düşünüyor.

“Açık kaynak geliştiricileri, ticari yazılım geliştirenlerle aynı yüke maruz kalmamalıdır. Özgür yazılımın 'olduğu gibi' sağlanabilmesi her zaman böyle olmalıdır - tek bir öğrencinin bir yapay zeka yeteneği geliştirmesini düşünün; AB düzenlemelerine uymayı göze alamazlar ve yazılımlarını dağıtmamaya zorlanabilirler, bu da akademik ilerleme ve bilimsel sonuçların tekrarlanabilirliği üzerinde caydırıcı bir etkiye sahiptir” dedi. söyledi TechCrunch.

Çıkarım için yeni MLPerf sonuçları çıktı

Çeşitli konfigürasyonlarda çok sayıda görevde farklı üreticilerin AI çiplerinin performansını kıyaslayan yıllık MLPerf çıkarım testinin sonuçları, yayınlanan bu hafta.

Veri merkezinde ve uç cihazlarda çıkarım için bu yıl yaklaşık 5,300 performans sonucu ve 2,400 güç önlemi bildirildi. Testler, bir donanım sisteminin belirli bir makine öğrenimi modelini ne kadar hızlı çalıştırabildiğine bakar. Veri kırma hızı, elektronik tablolarda rapor edilir.

Nvidia'nın bu yıl tekrar sıralamada birinci olması sürpriz değil. Nvidia, bir blog yazısında, "MLPerf endüstri standardı AI kıyaslamalarındaki ilk çıkışlarında, Nvidia H100 Tensor Core GPU'lar, tüm iş yüklerinde çıkarımlarda dünya rekorları kırdı ve önceki nesil GPU'lardan 4.5 kata kadar daha fazla performans sağladı" dedi. "Sonuçlar, Hopper'ın gelişmiş AI modellerinde en yüksek performansı talep eden kullanıcılar için birinci sınıf seçim olduğunu gösteriyor."

MLPerf yarışmasına giderek artan sayıda satıcı katılıyor olsa da, rekabet hakkında iyi bir fikir edinmek zor olabilir. Örneğin, bu yıl veri merkezi parkurunda Google'ın TPU yongaları için rapor edilmiş bir sonuç yok. Google, ancak, görünüşe göre as MLPerf'in bu yılın başlarındaki eğitim yarışması. 

AI sanatçıları görüntünün arkasında gizlenen korkunç yüzü keşfeder

Dijital bir sanatçı tarafından yayınlanan viral bir Twitter dizisi, metinden görüntüye modellerin yüzeyin altında ne kadar garip olabileceğini ortaya koyuyor.

Birçok netizen, metin istemleri yazarak görüntüler oluşturmak için bu sistemlerle denemeler yapmaktan keyif ve umutsuzluk duydu. Model çıktılarını ayarlamak için çeşitli hileler vardır; “negatif bilgi istemi” olarak bilinen bunlardan biri, kullanıcıların istemde açıklananın tam tersini bulmasını sağlar. 

Twitter'da Supercomposite adını kullanan bir sanatçı, sahte bir logonun masum görünümlü bir resmini tanımlayan şeyin olumsuz istemini bulduğunda, gerçekten korkunç bir şey buldu: Perili bir kadına benzeyen yüzü. Supercomposite, yapay zeka tarafından üretilen bu kadına “Loab” adını verdi ve onun görüntülerini başkalarıyla karşılaştırdıklarında, her zaman bir korku filminden bir sahne gibi göründüler.

süperkompozit anlattı Reg AI tarafından oluşturulan insanların rastgele görüntüleri genellikle olumsuz istemlerde ortaya çıkabilir. Garip davranış henüz başka bir örnek Bu modellerin sahip olabileceği tuhaf özelliklerden bazıları, insanların daha yeni keşfetmeye başladığı. 

Google'da duyarlı sohbet robotları yok, CEO Sundar Pichai diyor

Sundar Pichai, eski mühendis Blake Lemoine'nin, Google'ın bu hafta Code konferansında yaptığı konuşma sırasında duyarlı bir sohbet robotu oluşturduğu yönündeki iddialarıyla çelişti.

Lemoine, Temmuz ayında manşetlere çıktı. açıkladı Google'ın LaMDA sohbet robotunun bilinçli olduğunu ve bir ruhu olabileceğini düşündü. O daha sonra ateş LaMDA ile sohbet etmesi ve yasal haklarını değerlendirmesi için bir avukat tuttuktan sonra, makinenin kendisine bunu yapmasını söylediğini iddia ederek, şirketin gizlilik politikalarını ihlal ettiği bildirildiği için.

Google'ın CEO'su da dahil olmak üzere çoğu insan Lemoine ile aynı fikirde değil. “Hala gidilecek uzun bir yol olduğunu düşünüyorum. Duyarlılığın ne olduğu ve bilincin ne olduğu hakkında sık sık felsefi veya metafizik konuşmalara girdiğimi hissediyorum, ”dedi Pichai, göre Fortune'a. “Ondan çok uzaktayız ve oraya asla varamayabiliriz” diye ekledi.

Bu noktayı daha da vurgulamak için, Google'ın AI sesli asistanının bazen istekleri anlamadığını ve bunlara uygun şekilde yanıt vermediğini itiraf etti. "İyi haber şu ki, Google Asistan ile konuşan herkes - konuşma yapay zekası için oradaki en iyi yardımcı olduğunu düşünüyorum - bazı durumlarda hala ne kadar bozuk olduğunu görüyorsunuz" dedi. ®

Zaman Damgası:

Den fazla Kayıt