Avrupa Neden Yapay Zekanın Kullanımını Sınırlamaya Çalışıyor?

Yapay zekanın kullanımına ilişkin olarak Avrupa Birliği’ne önerilen yeni düzenleme kabul edilirse gözetim amaçlı yüz tanıma teknolojileri ve insan hareketlerini manipüle eden algoritmaların kullanılması yasaklanacak.

Avrupa Birliği’nde yapay zekanın kullanımına dair düzenleme hakkında detaylar resmi olarak açıklanmadan önce basına sızdı. BBC tarafından yapılan habere göre güvenlik güçleri ve işe alımlarda kullanılan algoritmalar da dahil olmak üzere yapay zekanın kullanımına kısıtlama getirirken, uzmanlar düzenlemede yer alan kuralların belirsiz ve boşluklar içerdiğini söylediler. Düzenlemede kamu güvenliğini korumak için ordu yetkilileri tarafından kullanılan sistemler muaf tutuluyor.

Öneride yasaklanması istenen yapay zeka kullanım alanları şunlar olarak belirtilmiş:

  • İnsan davranışını, görüş ve kararlarını etkileyebilecek şekilde tasarlanmış ya da bir kişinin kendi aleyhine davranmasına, bir fikir oluşturmasına veya karar almasına neden olan yapay zeka algoritmaları
  • Genelleştirilmiş biçimde uygulanan gelişigüzel gözetim için kullanılan yapay zeka sistemleri
  • Sosyal puanlama amaçlı geliştirilmiş yapay zeka
  • Kişi veya grupların güvenlik açıklarını hedeflemek için bilgi veya tahminlerde bulunan yapay zeka

Avrupa Politika analisti Daniel Leufer, sosyal medya hesabında bu tanımların yoruma çok açık olduğunu belirtirken bunları kimin değerlendireceğini ve aleyhte olduğunun nasıl belirleneceğinin muallakta olduğunu sözlerine ekledi.

Şayet yeni düzenlemeler kabul edilirse, üye devletler yüksek riskli kabul edilen yapay zeka uygulamaları için testler, incelemeler ve değerlendirme birimleri kuracak ve çok daha fazla gözetim uygulaması ortaya çıkacak.

Sakıncalı bulunan hizmetleri geliştiren veya bu uygulamalar hakkında doğru bilgi sağlamayan şirketler, GDPR ihlalleri nedeniyle para cezasına çarptırılabilecek.

Yüksek riskli görülen yapay zeka uygulamaları ise şu şekilde tanımlanıyor:

  • Acil durum hizmetlerinde öncelik oluşturan uygulamalar
  • İnsanların eğitim kurumlarına erişimini belirleyen veya atayan sistemler
  • İşe alım algoritmaları
  • Kredi değerini hesaplayan uygulamalar
  • Bireysel risk değerlendirmesi yapan uygulamalar
  • Suç tahmin algoritmaları

Yeni düzenlemeler AI (yapay zeka) sistemlerinin insan gözetiminde olması gerektiğine vurgu yaparken, yüksek riskli AI sistemlerinde bir durdurma düğmesi veya gerekirse sistemi anında kapatmak için başka bir prosedür olabilecek bir durdurma anahtarına sahip olmasını öneriyor.

Özensiz ve tehlikeli

Londra College Üniversitesi’nde dijital hak ve düzenlemeler alanında öğretim görevlisi olan Michael Veale ise kuruluşları sahte insan görüntüleri oluşturan ya da gerçek insanların görüntü ve videolarını manipüle eden yapay zeka kullanımı olan deepfake uygulamasını kullandıklarında ifşa etmeye zorlayacak bir maddeye vurgu yaptı.

Ayrıca yasanın öncelikle okullara, hastanelere, polis ve işverenlere yapay zeka uygulaması satan satıcılar ve danışmanları hedeflediğini sözlerine ekledi. Şayet yasa uygulamaya girerse kullanıcıları manipüle eden yapay zeka geliştiricisi teknoloji firmaları da uygulamalarını değiştirmek zorunda kalacak.

Kaynak

Total
0
Shares
Önceki haber

Instagram Beğenileri Gizleme Özelliğini Test Etmeye Başladı

Sonraki haber

Zyxel Teknoloji Gündemi Yayına Başladı!

İlginizi çekebilir