Yapay Zeka Uzmanları Hükümetlere Acilen Bir Şeyler Yapmayı Düşünmeleri Çağrısında Bulundu

Yapay zekanın, güvenlik önlemleri alınmadan çalıştırıldığında muazzam zararlara yol açma potansiyeline sahip, hızla gelişen ve büyüyen bir teknoloji olduğu gerçeği herkes tarafından kabul ediliyor gibi görünüyor, ancak temelde hiç kimse ( Avrupa Birliği hariç) yapay zekanın nasıl düzenleneceği konusunda fikir birliğine varamıyor. Dolayısıyla, yapay zekanın nasıl çalışacağına dair net ve dar bir yol belirlemeye çalışmak yerine, alandaki uzmanlar yeni bir yaklaşım benimsedi: Hepimizin kötü bulduğu aşırı örnekleri bulup, bu konuda hemfikir olmaya ne dersiniz?
Pazartesi günü, bir grup siyasetçi, bilim insanı ve akademisyen, yapay zekanın konuşlandırılmasından kaynaklanabilecek "evrensel olarak kabul edilemez riskleri" önlemek için dünya hükümetlerinin bir araya gelip en geniş kapsamlı güvenlik önlemleri üzerinde anlaşmaya varmaları çağrısında bulunan Yapay Zeka Kırmızı Çizgileri için Küresel Çağrı'yı duyurmak üzere Birleşmiş Milletler Genel Kurulu'na katıldı. Grubun amacı, bu kırmızı çizgileri 2026 yılı sonuna kadar belirlemek.
Öneri, şimdiye kadar sektör uzmanları, siyasi liderler ve Nobel Ödülü sahiplerinden 200'den fazla imza topladı. İrlanda eski Cumhurbaşkanı Mary Robinson ve Kolombiya eski Cumhurbaşkanı Juan Manuel Santos'un yanı sıra Nobel ödüllü Stephen Fry ve Yuval Noah Harari de projeye destek veriyor. Yapay zekâ alanındaki temel çalışmaları nedeniyle " Yapay Zekanın Vaftiz Babaları " olarak anılan üç kişiden ikisi olan Geoffrey Hinton ve Yoshua Bengio da listeye isimlerini ekledi.
Peki, bu kırmızı çizgiler neler? Buna karar vermek hâlâ hükümetlere kalmış. Çağrıda belirli politika önerileri veya tavsiyeleri yer almasa da, kırmızı çizgi olabilecek birkaç örnek sıralanıyor. Grup, nükleer silahların fırlatılmasını veya kitlesel gözetleme çalışmalarında kullanılmasını yasaklamanın yapay zeka kullanımları için potansiyel bir kırmızı çizgi olacağını, insan müdahalesiyle sonlandırılamayan yapay zekaların yaratılmasını yasaklamanın ise yapay zeka davranışları için olası bir kırmızı çizgi olacağını belirtiyor. Ancak çok netler: Bunları kesinleştirmeyin, bunlar sadece örnek, kendi kurallarınızı oluşturabilirsiniz.
Grubun somut olarak sunduğu tek şey, küresel bir anlaşmanın üç temel sütun üzerine inşa edilmesi gerektiğidir: "yasakların açık bir listesi; güçlü, denetlenebilir doğrulama mekanizmaları; ve Taraflarca uygulamayı denetlemek üzere oluşturulacak bağımsız bir organın atanması."
Ancak detaylar hükümetlerin onayına bağlı. Ve işin zor kısmı da bu. Çağrıda, ülkelerin tüm bunları çözmek için bazı zirveler ve çalışma grupları düzenlemeleri öneriliyor, ancak bu görüşmelerde şüphesiz birçok çelişkili neden var.
Örneğin Amerika Birleşik Devletleri, yapay zekanın nükleer silahları kontrol etmesine izin vermemeyi taahhüt etti (Biden yönetimi döneminde yapılan bir anlaşma, yani bunun hala geçerli olup olmadığını Tanrı bilir). Ancak son raporlar, Trump yönetiminin istihbarat topluluğunun bazı kesimlerinin, bazı yapay zeka şirketlerinin kendi araçlarını iç gözetleme faaliyetlerinde kullanmalarına izin vermemesinden şimdiden rahatsız olduğunu gösteriyor. Peki Amerika böyle bir öneriye katılır mı? Belki 2026'nın sonunda öğreniriz... eğer o kadar uzun süre dayanırsak.
gizmodo