Genel Yapay Zeka (IAG), OpenAI veya DeepSeek gibi şirketler tarafından teknolojik "kutsal kâse" olarak kabul edilir. İnsanlık için bir fırsat olarak sunulan IAG, aynı zamanda toplum için potansiyel riskleri, özellikle kontrol kaybı riskini de beraberinde getiriyor. Google DeepMind, yakın zamanda yayınladığı 145 sayfalık bir belgede bu riskleri hafifletmeye yönelik bir yaklaşım öneriyor ve bunu başarmak için proaktif bir planlama, hazırlık ve işbirliğinin şart olduğunu hatırlatıyor.
Uzmanların, IAG'nin insanlık için yaratabileceği zararlar konusundaki görüşleri oldukça farklılık gösteriyor. 2018 Turing Ödülü sahipleri Yoshua Bengio, Geoffrey Hinton ve Yann LeCun'un tutumları bu ayrılığı iyi bir şekilde gözler önüne seriyor. Geoffrey Hinton, Google'da yıllar geçirdikten sonra, 2023 yılında, AI'nın tehlikeleri hakkında özgürce konuşmak için görevinden ayrılmayı seçti. Özellikle gelişmiş modellerin yanlış bilgi yayma, manipülasyon yapma veya insan kontrolünden kaçma kapasitesinden korkuyor. Benzer şekilde, Yoshua Bengio, Future of Life Institute'un mektubunu ortak yazarak IAG geliştirilmesine geçici bir ara verilmesi gerektiğini savundu. Her ikisi de kritik eşiği aşmadan önce güçlü bir yönetişim, kamu gözetimi ve güvenlik protokollerinin uygulanması için mücadele ediyor.
Bugün Meta'da Chief AI Scientist olan Yann LeCun ise daha iyimser ve teknik bir pozisyon alıyor. Ona göre, IAG hala uzak bir hedef: Mevcut modeller, güçlü olsalar da, ne dünyanın gerçek bir anlayışına ne de gerçek bir ajan yeteneğine sahip. Açık araştırmanın devam etmesi gerektiğini savunurken, mevcut AI'nın keşif niteliği üzerinde duruyor ve insanlığın yok oluşu veya kontrol kaybı korkularının erken ve temelsiz olduğunu düşünüyor.
Buna karşılık, Google DeepMind'da IAG'nin kurucu ortağı ve baş bilimcisi olan Shane Legg, kontrol olmadan IAG'nin insanlık için varoluşsal riskler doğurabileceğini söylüyor. "An Approach to Technical AGI Safety and Security" makalesinin yazarlarıyla birlikte, IAG'nin bu on yılın sonuna kadar ulaşılması gerektiğini düşünüyor.
Bu belgede, dört ana risk alanı inceleniyor:
  • Kötüye kullanım : Kötü niyetli aktörlerin IAG'yi yıkıcı amaçlar için kullanması;
  • Uyumsuzluk : IAG'nin yaratıcılarının niyetlerine aykırı bir şekilde hareket etmesi;
  • Hatalar : IAG'nin istemeden zararlı kararlar alması;
  • Yapısal riskler : Çok ajanlı dinamiklerin beklenmedik sonuçlar doğurabilmesi.
Bu belgede, kötüye kullanım ve uyumsuzluk risklerinin yönetimine odaklanıyorlar, çünkü bunlar en doğrudan ve acil tehditleri oluşturuyor.

Risk Önleme Stratejileri

Kötüye kullanımı önlemek için, DeepMind, tehlikeli yeteneklere erişimi engellemeye yönelik bir dizi güvenlik ve erişim kontrol önlemi öneriyor. Bu önlemler arasında şunlar yer alıyor:
  • Yüksek riskli yeteneklerin proaktif olarak tanımlanması;
  • Bu yeteneklere erişimi sınırlamak için katı kısıtlamalar getirilmesi;
  • Modellerin sürekli izlenmesi ve güvenlik stratejilerinin güçlendirilmesi.
Uyumsuzluk konusunda, yaklaşım iki savunma düzeyine dayanıyor:
  • Model düzeyinde güvenlik: IAG'nin insan niyetleriyle uyumlu kalmasını sağlamak için denetimin artırılması ve gelişmiş eğitim;
  • Sistem düzeyinde güvenlik: Potansiyel tehlikeli sapmaları tespit etmek ve düzeltmek için kontrol ve izleme mekanizmalarının kurulması.
Model yorumlanabilirliği ve belirsizlik tahmini gibi araçlar da güvenlik önlemlerinin etkinliğini artırmak için öneriliyor.
DeepMind ekibi, bilim topluluğunun, IAG'nin potansiyel faydalarına güvenli ve kontrollü bir erişim sağlamak için çalışmalarını sürdürmelerine katılmasını umuyor.

Daha iyi anlamak

IAG'nin kullanımı için hangi düzenleyici çerçeve uygulanabilir?

IAG için bir düzenleyici çerçeve, kötüye kullanım ve uyumsuzlukları önlemek için katı şeffaflık gereklilikleri, bağımsız denetim protokolleri ve AI yaratıcıları için net sorumluluk içerebilir.