Yapay zekanın risklerini ve sağlam yapay zeka düzenlemesinin aciliyetini vurgulayan teknoloji liderleri

Yapay zekanın risklerini ve sağlam yapay zeka düzenlemesinin aciliyetini vurgulayan teknoloji liderleri

Yapay zekanın risklerini ve sağlam yapay zeka düzenlemesinin aciliyetini vurgulayan teknoloji liderleri
AI büyümesi ve ilerlemeleri son birkaç yılda katlanarak arttı. Statista raporları 2024 yılına kadar küresel AI pazarının, 3000'teki 126 milyar $'a kıyasla yaklaşık 2015 milyar $'lık şaşırtıcı bir gelir elde edeceği. Ancak, teknoloji liderleri şimdi bizi AI'nın çeşitli riskleri konusunda uyarıyor.
Özellikle son dalga üretken yapay zeka ChatGPT gibi modeller, sağlık, eğitim gibi veriye duyarlı çeşitli sektörlerde yeni yetenekler sunmuştur. maliye, vb. Yapay zeka destekli bu gelişmeler, kötü niyetli aracıların ortaya çıkarabileceği birçok yapay zeka eksikliği nedeniyle savunmasızdır.
AI uzmanlarının son gelişmeler hakkında söylediklerini tartışalım ve AI'nın potansiyel risklerini vurgulayalım. Bu risklerin nasıl yönetilebileceğine de kısaca değineceğiz.

Teknoloji Liderleri ve Yapay Zeka Risklerine İlişkin Endişeleri

Geoffrey Hinton

Yakın zamanda Google'dan ayrılan ünlü bir AI teknoloji lideri (ve bu alanın vaftiz babası) Geoffrey Hinton, endişelerini dile getirdi AI'daki hızlı gelişme ve potansiyel tehlikeleri hakkında. Hinton, AI sohbet robotlarının insan zekasını aşmaları halinde "oldukça korkutucu" olabileceğine inanıyor.
Hinton diyor ki:
"Şu anda gördüğümüz şey, GPT-4 gibi şeylerin, sahip olduğu genel bilgi miktarı açısından bir kişiyi gölgede bırakması ve onları uzun bir yoldan gölgede bırakmasıdır. Muhakeme açısından, o kadar iyi değil, ama zaten basit muhakeme yapıyor. Ve ilerleme hızı göz önüne alındığında, işlerin oldukça hızlı bir şekilde iyileşmesini bekliyoruz. Bu yüzden bunun için endişelenmemiz gerekiyor.”
Dahası, "kötü aktörlerin" AI'yı robotların alt hedeflerine sahip olmasına izin vermek gibi "kötü şeyler" için kullanabileceğine inanıyor. Endişelerine rağmen Hinton, AI'nın kısa vadeli faydalar sağlayabileceğine inanıyor, ancak AI güvenliği ve kontrolüne de büyük yatırım yapmalıyız.

Elon Musk

Elon Musk'ın yapay zekaya katılımı, ilk yatırımıyla başladı. DeepMind 2010 yılında, kurucu ortaklığa OpenAI ve yapay zekayı Tesla'nın otonom araçlarına dahil etmek.
Yapay zeka konusunda hevesli olmasına rağmen, sık sık yapay zekanın riskleri hakkında endişelerini dile getiriyor. Musk, güçlü AI sistemlerinin medeniyet için nükleer silahlardan daha tehlikeli olabileceğini söylüyor. adresindeki bir röportajda Fox Haber Nisan 2023'te şunları söyledi:
“Yapay zeka, örneğin yanlış yönetilen uçak tasarımından veya üretim bakımından veya kötü araba üretiminden daha tehlikelidir. Potansiyele sahip olması anlamında - ancak, küçük biri bu olasılığı dikkate alabilir - ama önemsiz değildir ve medeniyeti yok etme potansiyeline sahiptir.
Ayrıca Musk, "çok eğlenceli olmasa da" potansiyel risklere karşı güvenliği sağlamak için yapay zekaya ilişkin hükümet düzenlemelerini desteklemektedir.

Dev Yapay Zeka Deneylerini Duraklatın: 1000lerce Yapay Zeka Uzmanının Desteklediği Açık Bir Mektup

Future of Life Enstitüsü açık mektup yayınladı 22 Mart 2023. Mektup, altı aylık geçici bir durdurma çağrısında bulunuyor. AI sistemleri geliştirme daha gelişmiş göre GPT 4. Yazarlar, AI sistemlerinin geliştirilme hızıyla ilgili ciddi sosyoekonomik zorluklar yarattığına dair endişelerini dile getiriyor.
Ayrıca mektupta, yapay zeka geliştiricilerinin, yapay zeka yönetişim sistemlerini belgelemek için politika yapıcılarla birlikte çalışması gerektiği belirtiliyor. Haziran 2023 itibariyle, mektup 31,000'den fazla AI geliştiricisi, uzmanı ve teknoloji lideri tarafından imzalandı. Önemli imzacılar arasında Elon Musk, Steve Wozniak (Apple'ın kurucu ortağı), Emad Mostaque (CEO, Stability AI), Yoshua Bengio (Turing Ödülü sahibi) ve çok daha fazlası yer alıyor.

Yapay Zeka Geliştirmenin Durdurulmasına İlişkin Karşı Argümanlar

İki önde gelen AI lideri, Andrew Ng ve Yann LeCun, gelişmiş AI sistemleri geliştirmeye yönelik altı aylık yasağa karşı çıktılar ve ara vermeyi kötü bir fikir olarak gördüler.
Ng, AI'nın önyargı, gücün yoğunlaşması vb. bazı riskleri olmasına rağmen, eğitim, sağlık ve duyarlı koçluk gibi alanlarda AI tarafından yaratılan değerin muazzam olduğunu söylüyor.
Yann LeCun, son kullanıcıya ulaşan AI ürünleri düzenlenebilse de araştırma ve geliştirmenin durdurulmaması gerektiğini söylüyor.

Yapay Zekanın Potansiyel Tehlikeleri ve Acil Riskleri Nelerdir?

1. İşin Yerinden Edilmesi

AI uzmanları, akıllı AI sistemlerinin bilişsel ve yaratıcı görevlerin yerini alabileceğine inanıyor. Yatırım bankası Goldman Sachs, yaklaşık olarak 300 milyon iş üretken yapay zeka tarafından otomatikleştirilecek.
Bu nedenle, ciddi bir ekonomik gerilemeye neden olmaması için AI'nın geliştirilmesine ilişkin düzenlemeler yapılmalıdır. Çalışanların bu zorlukla başa çıkmaları için beceri kazandırmaya ve yeniden beceri kazandırmaya yönelik eğitim programları olmalıdır.

2. Taraflı Yapay Zeka Sistemleri

yanlılıklar İnsanlar arasında cinsiyet, ırk veya renkle ilgili yaygın olan bilgiler, yanlışlıkla AI sistemlerini eğitmek için kullanılan verilere sızabilir ve ardından AI sistemlerini önyargılı hale getirebilir.
Örneğin, işe alım bağlamında, önyargılı bir AI sistemi, belirli etnik kökenden gelen bireylerin özgeçmişlerini atarak iş piyasasında ayrımcılık yaratabilir. İçinde Kolluk, önyargılı tahmine dayalı polislik orantısız bir şekilde belirli mahalleleri veya demografik grupları hedef alabilir.
Bu nedenle, yapay zeka risklerini, özellikle önyargıyı ele alan kapsamlı bir veri stratejisine sahip olmak çok önemlidir. Yapay zeka sistemlerinin adil olması için sık sık değerlendirilmesi ve denetlenmesi gerekir.

3. Güvenlik Açısından Kritik AI Uygulamaları

Otonom araçlar, tıbbi teşhis ve tedavi, havacılık sistemleri, nükleer santral kontrolü vb. güvenlik açısından kritik yapay zeka uygulamalarına örnektir. Bu AI sistemleri dikkatli bir şekilde geliştirilmelidir çünkü küçük hatalar bile insan hayatı veya çevre için ciddi sonuçlar doğurabilir.
Örneğin, adı verilen AI yazılımının arızalanması Manevra Özellikleri Geliştirme Sistemi (MCAS) kısmen, ilk olarak Ekim 737'de ve ardından Mart 2018'da iki Boeing 2019 MAX'ın düşmesine atfedilir. Ne yazık ki, iki kazada 346 kişi öldü.

Yapay Zeka Sistemlerinin Risklerini Nasıl Aşabiliriz? – Sorumlu Yapay Zeka Geliştirme ve Mevzuata Uygunluk

Sorumlu AI (RAI) mahremiyeti sağlayan ve yasal düzenlemeleri ve toplumsal normları izleyen adil, hesap verebilir, şeffaf ve güvenli yapay zeka sistemleri geliştirmek ve dağıtmak anlamına gelir. AI sistemlerinin geniş ve hızlı gelişimi göz önüne alındığında, RAI'nin uygulanması karmaşık olabilir.
Ancak, büyük teknoloji şirketleri aşağıdaki gibi RAI çerçeveleri geliştirmiştir:
  1. Microsoft'un Sorumlu Yapay Zekası
  2. Google'ın AI İlkeleri
  3. IBM'in Güvenilir Yapay Zekası
Dünyanın dört bir yanındaki yapay zeka laboratuvarları, güvenilir yapay zeka sistemleri oluşturmak için bu ilkelerden ilham alabilir veya kendi sorumlu yapay zeka çerçevelerini geliştirebilir.

Yapay Zeka Mevzuatına Uygunluk

Veriler, yapay zeka sistemlerinin ayrılmaz bir parçası olduğundan, yapay zeka tabanlı kuruluşlar ve laboratuvarlar, veri güvenliğini, gizliliğini ve güvenliğini sağlamak için aşağıdaki düzenlemelere uymalıdır.
  1. GDPR (Genel Veri Koruma Yönetmeliği) – AB tarafından bir veri koruma çerçevesi.
  2. CCPA (Kaliforniya Tüketici Gizliliği Yasası) – mahremiyet hakları ve tüketicinin korunmasına ilişkin bir Kaliforniya eyalet yasası.
  3. HIPAA (Sağlık Sigortası Taşınabilirlik ve Sorumluluk Yasası) – hastaların tıbbi verilerini koruyan bir ABD mevzuatı.
  4. AB Yapay Zeka Yasası, ve Güvenilir yapay zeka için etik yönergeler – bir Avrupa Komisyonu AI yönetmeliği.
Vatandaşlarını korumak için farklı ülkeler tarafından çıkarılan çeşitli bölgesel ve yerel yasalar vardır. Verilerle ilgili mevzuat uyumluluğunu sağlayamayan kuruluşlar ciddi cezalarla sonuçlanabilir. Örneğin, GDPR bir para cezası belirlemiştir. 20 milyon € veya yıllık kârın %4'ü yasa dışı veri işleme, kanıtlanmamış veri onayı, veri sahiplerinin haklarının ihlali veya uluslararası bir kuruluşa korumasız veri aktarımı gibi ciddi ihlaller için.

Yapay Zeka Geliştirme ve Yönetmelikler – Bugün ve Gelecek

Her geçen ay, AI ilerlemeleri benzeri görülmemiş boyutlara ulaşıyor. Ancak, beraberindeki AI düzenlemeleri ve yönetişim çerçeveleri gecikiyor. Daha sağlam ve spesifik olmaları gerekir.
Teknoloji liderleri ve yapay zeka geliştiricileri, yeterince düzenlenmediği takdirde yapay zekanın riskleri konusunda alarm veriyor. Yapay zekadaki araştırma ve geliştirme, birçok sektörde daha fazla değer sağlayabilir, ancak dikkatli düzenlemenin artık zorunlu olduğu açıktır.

Bağlantı: https://www.unite.ai/tech-leaders-highlighting-the-risks-of-ai-the-urgency-of-robust-ai-regulation/?utm_source=pocket_saves

Kaynak: https://www.unite.ai

Teknoloji liderleri yapay zekanın risklerini ve güçlü yapay zeka düzenlemesi PlatoBlockchain Veri Zekasının aciliyetini vurguluyor. Dikey Arama. Ai.

Zaman Damgası:

Den fazla Fintech Haberleri