Yapay zeka insan kontrolünden kaçabilir mi?

MIT'de yapay zeka (YZ) ve fizik araştırmaları profesörü olan Max Tegmark, yaptığı hesaplamalar sonucunda, oldukça gelişmiş bir YZ'nin varoluşsal bir tehdit oluşturma olasılığının yüzde 90 olduğunu keşfettiğini söylüyor. Üç öğrencinin ortaklaşa yayınladığı bir makalede yazarlar, yapay zeka şirketlerinin güvenlik endişelerini gidermek için, Amerikalı fizikçi Arthur Compton tarafından oluşturulan ve Robert Oppenheimer'ın 1945'te atom bombasının öncesinde gerçekleştirdiği Trinity testine ilişkin hesaplamalarının temelini oluşturan Compton etkisi denklemini kullanmasını öneriyor.
Tegmark'a göre hesaplama, insan zekasından çok daha üstün genel yeteneklere sahip, oldukça gelişmiş bir yapay zekanın insan kontrolünden çıkabilme olasılığını ortaya koyuyor. Teknolojinin insanlığın yararına gelişmesini isteyen kar amacı gütmeyen bir kuruluş olan Future of Life Institute'un başkanı olan uzman, yapay zeka kullanan kuruluşların süper zeka sistemlerini tercih etmeden önce aynı hesaplamaları yapmaları gerektiği konusunda uyarıyor.
Sonuçlar The Guardian'da yayımlanırken, uzman sosyal medya üzerinden tepki gösterdi. "Şirketler ve ülkelerdeki araştırmacılar bu sabiti yeniden hesaplayıp bunun çok yüksek olduğu konusunda hemfikir olurlarsa, güvenlik standartlarını dayatmak için siyasi irade ortaya çıkacaktır" dedi.
The Guardian, gelecekte süper zekanın insan kontrolünden çıkıp Dünya'yı ele geçirme olasılığını ifade eden "Compton sabiti"nin hesaplanmasına ilişkin yeni makalemizi ele aldı. Şirketler ve ülkeler genelindeki araştırmacılar bu sabiti yeniden hesaplayıp çok yüksek olduğu konusunda hemfikir olurlarsa... pic.twitter.com/iwdJjLO1eO
— Max Tegmark (@tegmark) 10 Mayıs 2025
Tegmark, Kasım ayında Web Zirvesi için Lizbon'daydı ve Observador'a gerekli gördüğü güvenlik standartları hakkında bilgi verdi . "Herhangi bir endüstrinin güvenlik standartları vardır, değil mi? Bir restoran açmak istiyorsanız, eminim Lizbon şehri bazı güvenlik standartlarına sahiptir. Mutfakta fareler ve benzeri şeyler olamaz. En önemli kısım, güvenlik standartlarının olması gerektiğidir. Ve bunların ne olması gerektiğini anlamak için bazı yapay zeka uzmanlarına sahip olmanız ve onların birbirleriyle konuşmalarına izin vermeniz gerekir ve kesinlikle bir şeyler anlayacaklardır."
observador