LangChain ve LLamaIndex gibi bir dizi açık kaynak projesi de büyük dil modellerinin sağladığı yetenekleri kullanarak uygulama geliştirmenin yollarını araştırıyor. Guo, OpenAI eklentilerinin lansmanının bu çabaları baltalamakla tehdit ettiğini söylüyor.
Eklentiler, karmaşık yapay zeka modellerini rahatsız eden riskler de getirebilir. Washington Üniversitesi’nde dilbilim profesörü olan Emily Bender’e göre ChatGPT’nin kendi eklenti kırmızı ekibi üyeleri, “sahte veya spam e-postalar gönderebileceklerini, güvenlik kısıtlamalarını atlayabileceklerini veya eklentiye gönderilen bilgileri kötüye kullanabileceklerini” keşfettiler. Bender, “Otomatik sistemlerin dünyada harekete geçmesine izin vermek bizim yaptığımız bir seçimdir” diye ekliyor.
Kâr amacı gütmeyen bir kuruluş olan Yapay Zeka Güvenliği Merkezi’nin direktörü Dan Hendrycks, Google, Microsoft ve OpenAI gibi şirketlerin AI Yasası yoluyla sorumluluğu sınırlamak için agresif bir şekilde lobi yaptığı bir zamanda eklentilerin dil modellerini daha riskli hale getirdiğine inanıyor. ChatGPT eklentilerinin piyasaya sürülmesini kötü bir emsal olarak nitelendiriyor ve bunun diğer büyük dil modelleri üreticilerinin benzer bir yol izlemesine yol açabileceğinden şüpheleniyor.
Ve bugün sınırlı sayıda eklenti olsa da, rekabet OpenAI’yi seçimini genişletmeye zorlayabilir. Hendrycks, ChatGPT eklentileri ile teknoloji şirketlerinin geliştirici ekosistemlerini Amazon’un Alexa sesli asistanı gibi sohbete dayalı yapay zeka etrafında büyütmeye yönelik önceki çabaları arasında bir fark görüyor.
GPT-4, örneğin, Linux komutlarını çalıştırabilir ve GPT-4 kırmızı ekip oluşturma süreci, modelin nasıl biyolojik silah yapılacağını, bomba sentezleneceğini veya karanlık ağda fidye yazılımı satın alınabileceğini açıklayabildiğini buldu. Hendrycks, ChatGPT eklentilerinden ilham alan uzantıların hedef odaklı kimlik avı veya kimlik avı e-postaları gibi görevleri çok daha kolay hale getirebileceğinden şüpheleniyor.
Metin oluşturmadan bir kişi adına işlem yapmaya geçmek, şimdiye kadar dil modellerinin işlem yapmasını engelleyen bir hava boşluğunu aşındırır. Hendrycks, “Modellerin hapse atılabileceğini biliyoruz ve şimdi potansiyel olarak harekete geçebilmesi için onları internete bağlıyoruz” diyor. “Bu, ChatGPT’nin kendi iradesiyle bomba falan yapacağı anlamına gelmiyor ama bu tür şeyleri yapmayı çok daha kolaylaştırıyor.”
San Francisco Üniversitesi Uygulamalı Veri Etiği Merkezi direktörü Ali Alkhatib, dil modelleri için eklentilerle ilgili sorunun bir kısmının, bu tür sistemleri jailbreak yapmayı kolaylaştırabilmeleri olduğunu söylüyor. Yapay zeka ile doğal dili kullanarak etkileşim kurduğunuz için potansiyel olarak milyonlarca keşfedilmemiş güvenlik açığı vardır. Alkhatib, Microsoft ve OpenAI gibi şirketlerin yapay genel zekaya yönelik son ilerleme iddialarıyla halkın algısını karıştırdığı bir zamanda eklentilerin geniş kapsamlı çıkarımlar taşıdığına inanıyor.
Yeni AI sistemlerini kullanmaktan heyecan duyan şirketlerin, eklentileri danışmanlık hizmetleri gibi hassas bağlamlara acele ettirebileceği endişesini dile getirirken, “İşler sadece tehlikeli değil, aynı zamanda birçok insan için gerçekten zararlı olacak kadar hızlı ilerliyor” diyor.
Yapay zeka destekli aracılar üzerinde çalışan bir yapay zeka şirketi olan General Intelligent’in CEO’su Kanjun Qiu, ChatGPT gibi yapay zeka programlarına yeni yetenekler eklemenin istenmeyen sonuçlara da yol açabileceğini söylüyor. Örneğin, bir sohbet robotu aşırı pahalı bir uçuş rezervasyonu yaptırabilir veya spam dağıtmak için kullanılabilir ve Qiu, bu tür uygunsuz davranışlardan kimin sorumlu olacağını bulmamız gerektiğini söylüyor.
Ancak Qiu, internete bağlı AI programlarının kullanışlılığının, teknolojinin durdurulamaz olduğu anlamına geldiğini de ekliyor. Qiu, “Önümüzdeki birkaç ay ve yılda, internetin çoğunun büyük dil modellerine bağlanmasını bekleyebiliriz” diyor.
Bir yanıt bırakın