Nasıl Daha Güvenli Hale Getirileceğini Bildiğimiz Halde Yapay Zeka Araştırmasını Neden Durduruyoruz?

Geçen hafta, Future of Life Enstitüsü, “tehlikeli” AI yarışına altı aylık bir moratoryum öneren bir açık mektup yayınladı. O zamandan beri AI topluluğunun bazı etkili üyeleri de dahil olmak üzere 3.000’den fazla kişi tarafından imzalandı. Ancak AI sistemlerinin risklerinin topluluk içinde ve toplum genelinde görünürlük kazanması iyi olsa da, mektupta açıklanan sorunlar ve önerilen eylemler gerçekçi değil ve gereksiz.

Yapay zeka çalışmasına ara verilmesi çağrısı yalnızca belirsiz değil, aynı zamanda mümkün de değil. Kâr amacı güden şirketler tarafından büyük dil modellerinin eğitimi en çok ilgiyi çekse de, gerçekleştirilen tek yapay zeka işi türü olmaktan çok uzaktır. Aslında, AI araştırması ve uygulaması şirketlerde, akademide ve dünyanın her yerindeki Kaggle yarışmalarında verimlilikten güvenliğe kadar çok sayıda konuda yapılıyor. Bu, yalnızca “güvenli” türe izin verirken “tehlikeli” yapay zeka araştırmasını durduracak herhangi birinin basabileceği sihirli bir düğme olmadığı anlamına gelir. Ve mektupta adı geçen AI risklerinin tümü varsayımsaldır ve şu anda bireylere zarar veren algoritmik ayrımcılık ve tahmine dayalı polislik gibi gerçek sorunları insanlık için potansiyel varoluşsal riskler lehine gözden kaçırma eğiliminde olan uzun vadeli bir zihniyete dayanmaktadır.

Yapay zekanın gelecekte başarısız olabileceği yollara odaklanmak yerine, şu anda bir yapay zeka başarısını neyin oluşturduğunu net bir şekilde tanımlamaya odaklanmalıyız. Bu yol son derece açık: Araştırmayı durdurmak yerine, yapay zeka sistemlerinin konuşlandırılmasıyla ilgili yönergeler geliştirirken şeffaflığı ve hesap verebilirliği geliştirmemiz gerekiyor. Bu doğrultudaki politika, araştırma ve kullanıcı liderliğindeki girişimler, farklı sektörlerde on yıllardır var olmuştur ve AI’nın mevcut risklerini ele almak için üzerinde çalışacağımız somut tekliflerimiz var.

Dünyanın dört bir yanındaki düzenleyici makamlar, yeni yapay zeka teknolojilerinin kullanımını ve geliştirilmesini yönetmek için şimdiden yasalar ve protokoller hazırlıyor. ABD Senatosunun Algoritmik Hesap Verebilirlik Yasası ve AB ve Kanada’daki benzer girişimler, AI sistemlerini eğitmek, telif hakkı ve lisanslama konularını ele almak ve AI kullanımı için gereken özel hususları tartmak için hangi verilerin kullanılabileceğini ve kullanılamayacağını tanımlamaya yardımcı olan girişimler arasındadır. yüksek riskli ortamlarda. Bu kuralların kritik bir kısmı şeffaflıktır: Yapay zeka sistemlerinin yaratıcılarının eğitim verilerinin kaynağı, modelleri eğitmek için kullanılan kod ve güvenlik filtreleri gibi özelliklerin nasıl uygulandığı gibi teknik ayrıntılar hakkında daha fazla bilgi sağlamasını zorunlu kılmak. Hem AI modellerinin geliştiricileri hem de onların alt kullanıcıları, temsilcileriyle etkileşime geçerek ve mevzuatın yukarıda açıklanan sorular etrafında şekillenmesine yardımcı olarak bu çabaları destekleyebilir. Sonuçta, verilerimiz kullanılıyor ve geçim kaynaklarımız etkileniyor.

Ancak bu tür bilgileri erişilebilir kılmak tek başına yeterli değildir. Yapay zeka modelleri geliştiren şirketler, sistemlerinin dış denetimlerine de izin vermeli ve tespit edilirlerse riskleri ve eksiklikleri ele almaktan sorumlu tutulmalıdır. Örneğin, ChatGPT, Bard ve GPT-4 gibi en yeni yapay zeka modellerinin çoğu aynı zamanda en kısıtlayıcı modellerdir ve yalnızca bir API veya tamamen onları oluşturan şirketler tarafından kontrol edilen kapılı erişim aracılığıyla kullanılabilir. Bu, onları, çıktıları bir günden diğerine değişebilen veya farklı insanlar için farklı sonuçlar üretebilen kara kutular haline getirir. GPT-4 gibi bazı şirket onaylı kırmızı takım araçları olsa da, araştırmacıların temel sistemlere erişmesinin hiçbir yolu yoktur, bu da bilimsel analiz ve denetimleri imkansız hale getirir. Bu, modeller topluma dağıtılmadan önce riskli davranışların ve zararların tespit edilmesi için model geliştirme sürecinin farklı aşamalarında gözden geçirme çağrısında bulunan Deborah Raji gibi bilim adamları tarafından önerilen yapay zeka sistemlerinin denetlenmesine yönelik yaklaşımlara aykırıdır.

Güvenliğe yönelik bir diğer önemli adım, AI oluşturma ve kullanma şeklimizi topluca yeniden düşünmektir. Yapay zeka geliştiricileri ve araştırmacıları, yıllardır daha etik yapay zekayı savunan birçok kişiyi dinleyerek yapay zeka uygulaması için normlar ve yönergeler oluşturmaya başlayabilir. Bu, “yavaş bir AI” hareketi öneren Timnit Gebru ve yakın tarihli bir AI konferansındaki açılış konuşması sırasında etik AI için yol gösterici ilkeler oluşturmanın önemini vurgulayan Ruha Benjamin gibi araştırmacıları içerir. NeurIPS konferansı (başkanlığını yapmakta olduğum bir çaba) tarafından uygulanan Etik Kuralları gibi topluluk odaklı girişimler de bu hareketin bir parçasıdır ve yapay zeka araştırması açısından neyin kabul edilebilir olduğu ve onun nasıl değerlendirileceği konusunda kılavuz ilkeler oluşturmayı amaçlar. toplum üzerindeki daha geniş etkiler.

İlk yorum yapan olun

Bir yanıt bırakın

E-posta hesabınız yayımlanmayacak.


*