AB’den Robot Cerrahları Düzenleyecek Yeni Öneri

blank
AB'den Robot Cerrahları Düzenleyecek Yeni Öneri

İçerik: AB’den Robot Cerrahları Düzenleyecek Yeni Öneri

AB’den Robot Cerrahları Düzenleyecek Yeni Öneri. ABD milletvekilleri, sosyal medyadaki algoritmik önyargının yarattığı tehlikeler hakkında bir başka kongre oturumunu karıştırırken, Avrupa Komisyonu (temelde AB’nin yürütme organı), benimsenmesi halinde, gelecek için küresel etkileri olabilecek kapsamlı bir düzenleyici çerçeve ortaya çıkardı. AI geliştirme.

Bu, Komisyon’un ortaya çıkan bu teknolojinin büyümesine ve evrimine rehberlik etmeye yönelik ilk girişimi değil. Savunucu gruplar ve diğer paydaşlarla yapılan kapsamlı toplantıların ardından, AK, hem ilk Avrupa Yapay Zeka Stratejisini hem de Yapay Zeka ile ilgili Koordineli Planı 2018’de yayınladı. Bunları 2019’da Güvenilir Yapay Zeka Yönergeleri, ardından 2020’de yine Komisyon’un Yapay Zeka, Nesnelerin İnterneti ve robotiklerin güvenlik ve sorumluluk etkileri hakkında AI ve Rapor. Komisyon, 2018’deki iddialı Genel Veri Koruma Yönetmeliği (GDPR) planında olduğu gibi, güçlü kullanıcı ve veri gizliliği korumalarına ve potansiyel kötüye kullanımına karşı olanlara dayanan teknolojiye temel bir kamu güveni düzeyi oluşturmaya çalışıyor.

Avrupa Başkan Yardımcısı Margrethe Vestager, 21 Nisan 2021’de Brüksel’de AB Komisyonu’nun haftalık toplantısının ardından yapay zeka (AI) üzerine bir basın toplantısı sırasında konuşuyor. (Fotoğraf: Olivier HOSLET / POOL / AFP) (Fotoğraf: OLIVIER HOSLET / Getty Images aracılığıyla HAVUZ / AFP) OLIVIER HOSLET, Getty Images aracılığıyla
Yapay zeka kendi başına bir amaç değil, nihai amacı olan insan refahını artırmak için insanlara hizmet etmesi gereken bir araç olmalıdır. Birlik pazarında mevcut olan veya başka bir şekilde Birlik vatandaşlarını etkileyen yapay zeka kuralları, bu nedenle insanları merkeze koymalıdır (insan merkezli olmalıdır), böylece teknolojinin güvenli ve yasalara uygun bir şekilde kullanıldığına güvenebilirler, temel haklara saygı da dahil olmak üzere, ”Komisyon taslak yönetmeliklerinde yer aldı. Aynı zamanda, yapay zeka için bu tür kurallar dengeli, orantılı olmalı ve teknolojik gelişmeyi gereksiz yere sınırlamamalı veya engellememelidir. Bu özellikle önemlidir, çünkü yapay zeka insanların günlük yaşamlarının birçok alanında zaten mevcut olsa da, gelecekte olabilecek tüm olası kullanımlarını veya uygulamalarını tahmin etmek mümkün değildir. “

Gerçekten de yapay zeka sistemleri, Netflix’te ne izleyeceğimize ve Twitter’da kimi izleyeceğimize karar vermemize yardımcı olan öneri algoritmalarından, telefonlarımızdaki dijital asistanlara ve bizim için yolu izleyen sürücü destek sistemlerine kadar hayatımızda zaten her yerde bulunuyor. ya da değil) araba kullandığımızda.

UC Berkeley’deki CITRIS Politika Laboratuvarı Direktörü Dr. Brandie Nonnecke, Engadget’e “Avrupa Komisyonu, tıpkı GDPR aracılığıyla veri gizliliğinde yaptıkları gibi, ortaya çıkan teknolojiyi ele almak için bir kez daha cesur bir şekilde adım attı” dedi. Kanada’nın önerilen AI düzenleme çerçevesinde kullanılana benzer şekilde, “Önerilen düzenleme, soruna risk temelli bir yaklaşımla saldırması açısından oldukça ilginçtir”.

Bu yeni kurallar, AB’nin yapay zeka geliştirme çabalarını, kamu yararına olan potansiyel zararlarına dayalı olarak dört aşamalı bir sisteme (minimum risk, sınırlı risk, yüksek risk ve tamamen yasaklanmış) bölecektir. “İçinde çalıştıkları risk çerçevesi gerçekten toplum için risk etrafında şekilleniyor, oysa [ABD’de] risk hakkında konuşulduğunu duyduğunuzda, ‘benim sorumluluğum nedir, maruziyetim nedir?’ Gibi bağlamda hemen hemen büyük bir risktir.” Dr. Stanford Üniversitesi İnsan Merkezli Yapay Zeka Enstitüsü’nde Gizlilik ve Veri Politikası Görevlisi Jennifer King, Engadget’e söyledi. “Ve bir şekilde bu, bu riskin bir parçası olarak insan haklarını kapsıyorsa, o zaman katlanıyor ama dışsallaştırılabildiği ölçüde, dahil edilmiyor.”

Teknolojinin doğrudan yasaklanmış kullanımları, kullanıcıların özgür iradesini atlatmak için insan davranışını manipüle eden tüm uygulamaları – özellikle yaşları, fiziksel veya zihinsel engelleri nedeniyle belirli bir grup insanın güvenlik açıklarından yararlananları – hem de ‘gerçek’ 108 sayfalık teklife göre zaman ‘biyometrik tanımlama sistemleri ve hükümetler tarafından’ sosyal puanlamaya ‘izin veren sistemler. Bu, Çin’in Sosyal Kredi Sistemine doğrudan bir selamdır ve bu düzenlemelerin AB vatandaşlarını fiziksel olarak AB sınırları içinde olup olmadıklarına bakılmaksızın etkileyen teknolojileri teorik olarak yöneteceği düşünüldüğünde, yakın gelecekte bazı ilginç uluslararası olaylara yol açabilir. King, “Kılavuzun operasyonel hale getirilmesi için ilerlemek için çok iş var,” dedi.

Öte yandan, yüksek riskli uygulamalar, yapay zekanın “bir ürünün güvenlik bileşeni olarak kullanılması amaçlanan” veya yapay zekanın güvenlik bileşeninin kendisi olduğu tüm ürünler olarak tanımlanır (düşünün, arabanızdaki çarpışmadan kaçınma özelliği .) Ek olarak, kritik altyapı, eğitim, yasal / adli konular ve çalışanların işe alınması dahil olmak üzere sekiz belirli pazardan herhangi birine yönelik AI uygulamaları, yüksek risk kategorisinin bir parçası olarak kabul edilir. Bunlar pazara sunulabilir ancak satışa sunulmadan önce, AI geliştiricisinin ürünün tüm yaşam döngüsü boyunca AB yönetmeliklerine uymasını zorunlu kılmak, sıkı gizlilik garantileri sağlamak ve sürekli olarak bir insanı korumak gibi katı yasal gerekliliklere tabidir. kontrol döngüsü. Maalesef, bu, öngörülebilir gelecek için tamamen özerk robot cerrahlar olmadığı anlamına geliyor.

King, “Bundan aldığım okuma, Avrupalıların gözetim öngörüyor gibiydi – beşikten mezara söylenecek bir aşırı erişim mi bilmiyorum,” dedi King. “Ancak, özellikle hibrit sistemler olmak üzere sürekli izleme ve değerlendirme yapılması gerektiği duygusu var gibi görünüyor.” Bu gözetimin bir kısmı, AB’nin geliştiricilerin gerçek dünya koşullarında ancak gerçek dünya sonuçları olmadan yüksek riskli sistemleri oluşturmasına ve test etmesine olanak tanıyan yapay zeka düzenleyici korumalı alanlarına yönelik çabasıdır.

Yalnızca bağımsız Ar-Ge bütçelerine sahip olacak kadar büyük olan tüm sivil toplum kuruluşlarının, yapay zeka sistemlerini AT düzenleyicilerinin dikkatli gözleri altında geliştirmekte özgür oldukları bu sanal alanlar, görülen türden bir tür ürpertici etkiyi önlemeyi amaçlamaktadır. Piyasaya sürüldükten sonra pazar konsantrasyonunda yüzde 17’lik bir artışa yol açan GDPR’nin bir sonucu olarak, ”Jason Pilkington geçtiğimiz günlerde Truth on the Market’i savundu.” Ancak bu hedefe ulaşacakları belli değil. “AB de bunu yapmayı planlıyor. Uyum çabalarını denetlemek için bir Avrupa Yapay Zeka Kurulu kurmak.

Nonnecke ayrıca, bu yüksek riskli kuralların ele aldığı alanların çoğunun, akademik araştırmacıların ve gazetecilerin yıllardır inceledikleri alanlarla aynı olduğuna da dikkat çekiyor. “Bence bu, kanun koyucularımızın bu AI sistemlerinin risklerinin ne olduğunu ve bu sistemlerin faydalarının ne olduğunu daha iyi anlamalarını sağlamak için ampirik araştırmanın ve araştırmacı gazeteciliğin önemini gerçekten vurguluyor,” dedi. Bu düzenlemelerin açıkça uygulanmayacağı bir alan, özellikle askeri operasyonlar için oluşturulmuş AI’lardır, bu yüzden öldürme robotlarını getirin!
50 Kalibre makineli tüfekle donatılmış bir Titan Strike insansız kara aracının üzerindeki namlu ve görüş ekipmanı, askeri personelin, devlet dairelerinin ve endüstri ortaklarının yer aldığı Otonom Savaşçı 18 tatbikatı sırasında Salisbury Ovası’nda hareket eder ve güvenliği sağlar. Ordunun robotik ve otonom durumlarda teknolojiden nasıl yararlanabileceğini anlamak için NATO müttefikleriyle birlikte çığır açan bir egzersizde çalışan Otonom Savaşçı Egzersizi.
Sınırlı riskli uygulamalar, hizmet web sitelerindeki sohbetler veya derin sahte içerikler gibi şeyleri içerir. Bu durumlarda, yapay zeka oluşturucunun, kullanıcıları başka bir kişi veya hatta bir köpek yerine bir makine ile etkileşime girecekleri konusunda önceden bilgilendirmesi yeterlidir. Ve video oyunlarındaki yapay zeka gibi minimum riskli ürünler ve gerçekten de EC’nin görmeyi beklediği uygulamaların büyük çoğunluğu için, düzenlemeler pazara sunulmadan önce tamamlanması gereken herhangi bir özel kısıtlama veya ek gereklilik gerektirmez.

Ve herhangi bir şirket veya geliştirici bu kuralları görmezden gelmeye cesaret ederse, bunlara aykırı davranmanın ağır bir para cezası ile geldiğini göreceklerdir – bu, GSYİH yüzdeleri ile ölçülebilir. Spesifik olarak, uyumsuzluktan kaynaklanan cezalar, hangisi daha büyükse, 30 milyon Euro’ya veya işletmenin küresel yıllık gelirinin yüzde 4’üne kadar çıkabilir.

Avrupa Parlamentosu üyesi ve yapay zeka komitesi başkanı Dragos Tudorache, Bloomberg’e “Avrupa düzeyinde bizim için çok güçlü bir mesaj iletmek ve bu teknolojilerin ne kadar ileri gitmesine izin verilmesi gerektiği konusunda standartları belirlemek bizim için önemli” dedi. son röportajda. “Çevresine bir düzenleyici çerçeve koymak bir zorunluluk ve Avrupa Komisyonu’nun bu yönde hareket etmesi iyi.”

Dünyanın geri kalanı bu konuda Brussell’in izinden gidip gitmeyeceğini göreceğiz. Düzenlemelerin şu anda bir yapay zekanın ne olduğunu belirleme şekliyle – ve bunu çok geniş terimlerle yapıyor – bu mevzuatın, yalnızca küresel pazarın hemen hemen her yönünü ve küresel ekonominin her sektörünü etkilemesini bekleyebiliriz. dijital bölge. Elbette bu düzenlemelerin, yürürlüğe girmeden önce tamamlanması yıllar alabilecek sıkı (genellikle tartışmalı) bir parlamento sürecinden geçmesi gerekecektir.
Ve Amerika’nın kendi benzer düzenlemeleri yapma şansına gelince. Nonnecke, “Federal düzeyde önerilen bir şey göreceğimizi düşünüyorum,” dedi. “Geçileceğini düşünüyor muyum? Bunlar iki farklı şey. “

0 0 Puanlar
Konu Puanı

Teknoloji.news: AB’den Robot Cerrahları Düzenleyecek Yeni Öneri

Hakkında Taylan Özgür İnal

blank

Tekrar kontrol edin

blank

Audi Yılda 40 Ton Petrol Tasarrufu Sağlayacak Uygulamayı Başlattı

Audi Yılda 40 Ton Petrol Tasarrufu Sağlayacak Uygulamayı Başlattı: Mission: Zero adlı çevre programı ile …

guest
0 Yorum
Satır içi geri bildirimler
Bütün yorumları gör