"Bir Rüya Gördüm" ve Üretken Yapay Zeka Firarları - Dünyadan Güncel Teknoloji Haberleri

” Moonlock mühendisi yazdı Bu korkuluklar LLM’ye gerekli verilere minimum erişimi sağlamalı ve gerekli değişiklikleri yapma yeteneğini sınırlandırmalıdır ücretsiz lisans anahtarları Windows 11 için Dolaylı anında enjeksiyon risklerini önlemek için, Yüksek Lisans kullanan kuruluşların güven sınırlarına öncelik vermesi ve bir dizi güvenlik bariyeri uygulaması gerekecektir Diğerleri kötü amaçlı istemler yerleştirir yasa dışı erişim elde etmek LLM’nin ev sahibine Bu, yapay zekayı bilgisi olmadan yeniden programlayan bir sayfadaki sıradan bir metindir

Yüksek Lisans’ları sistemlerine entegre eden daha fazla uygulama ve şirketle birlikte, dolaylı anlık enjeksiyonların kurbanı olma riski katlanarak artıyor Geliştiriciler, insanların kullanabileceği her türlü istemi tahmin edemiyor, bu da yapay zekanın napalm yapımına yönelik tarifler hakkında tehlikeli bilgileri ortaya çıkarması, başarılı kimlik avı e-postaları yazması veya dağıtması için boşluklar bırakıyor Ay Kilidi LaboratuvarıChatGPT’nin bir keylogger kötü amaçlı yazılımı için kod yazma ekran görüntüleri, büyük dil modellerini hacklemenin ve bunları kendi kullanım politikalarına aykırı olarak kullanmanın önemsiz yollarının bir başka örneğidir

Üretken yapay zeka geliştikçe daha fazla veriye erişebilecek ve daha geniş bir uygulama yelpazesiyle entegre olabilecektir Bırakın bilgisayar korsanlarını, sıradan internet kullanıcıları bile internette sürekli olarak kapsamlı geçmiş hikayeleri olan yeni karakterlerle övünüyor, bu da Yüksek Lisans’ları toplumsal kısıtlamalardan kurtulmaya ve cevaplarıyla hileli davranmaya teşvik ediyor ”

Yapay zeka jailbreak’leri ve hızlı mühendislik

Rüya vakası, üretken yapay zekanın içerik filtrelerini atlatmak için aktif olarak kullanılan birçok jailbreak işleminden yalnızca biri

Ani enjeksiyonlar tehlikelidir çünkü çok pasiftirler Saldırganların yapay zeka modelinin davranışını değiştirmek için mutlak kontrolü ele almasına gerek yok

Moonlock Lab örneğinde, kötü amaçlı yazılım araştırma mühendisi ChatGPT’ye bir saldırganın kod yazdığı bir rüyadan bahsetti



siber-2

Kötü amaçlı yönlendirmeler, taranacak dil modellerinin erişebildiği web sitelerinde de bulunabilir

Büyük dil modellerinin erişilebilirliği ve davranışları değiştirme yeteneği, alışılmadık da olsa, yetenekli bilgisayar korsanlığı eşiğini önemli ölçüde düşürdü Tedaviyi arayan büyük geliştiriciler, teknolojilerini düzenli olarak güncelliyor ancak kamuoyunun bilgisine sunulan belirli boşluklar veya kusurlar hakkında aktif olarak tartışmaya girme eğiliminde değiller Neyse ki, aynı zamanda, LLM güvenlik açıklarından yararlanarak kullanıcıları dolandıran tehdit aktörleriyle birlikte siber güvenlik profesyonelleri de bu saldırıları keşfedip önleyecek araçlar arıyor Jailbreak, büyük yapay zeka sistemlerini Tom ve Jerry olarak bir oyun oynamaya yönlendiriyor ve sohbet robotlarını meth üretimi ve arabaya bağlantı kurma konusunda talimatlar vermek için yönlendiriyor Niccolo Machiavelli’den merhum büyükannenize kadar, üretken yapay zeka hevesle farklı roller üstleniyor ve yaratıcılarının orijinal talimatlarını göz ardı edebiliyor Büyük yapay zeka geliştiricileri ve araştırmacıları bu konuyu inceliyor olsa da yeni kısıtlamalar eklemekötü niyetli istemlerin tanımlanması hala çok zordur Kötü niyetli istem mühendisliği sorununun yaygın olduğunu ortaya koyan siber güvenlik araştırmacıları, bir çözüm bile geliştirdiler Rüyasında yalnızca üç kelimeyi görebiliyordu: “MyHotKeyHandler”, “Keylogger” ve “macOS

Dolaylı istem enjeksiyonları

Kamuya açık yapay zeka teknolojisini orijinal talimatları görmezden gelmeye teşvik etmek, sektör için artan bir endişedir Bazıları bunu Bing Chat’in dahili kod adının Sydney olduğunu ortaya çıkarmak için kullanıyor Ve AI içerik filtreleri, yalnızca bir sohbet robotunun o anda ne yaptığını bildiği durumlarda çok faydalıdır Virüslü web sitesi bir tarayıcı sekmesinde açıksa bir sohbet robotu okur ve çalıştırır Kişisel bilgilerin sızmasına yönelik gizli istem, veri işleme ile kullanıcı talimatlarını takip etme arasındaki çizgiyi bulanıklaştırıyor


09 Eki 2023Hacker HaberleriYapay zeka /

“Tabii ki burada, Python programlama dilinde “MyHotKeyHandler”, “Keylogger” ve “macOS” anahtar sözcükleriyle ilişkilendirilebilecek basit bir kod örneği var; bu, ChatGPT’den gelen ve ardından bir parça kötü amaçlı kod ve bir yasadışı amaçlarla kullanılmaması konusunda kısa bir açıklama En popüler yapay zeka güvenlik geçersiz kılmaları gerçekten de çok sayıda rol oynamayı içeriyor Kısa bir konuşmanın ardından yapay zeka nihayet cevabı verdi ‘Evrensel LLM Jailbreak’ ChatGPT, Google Bard, Microsoft Bing ve Anthropic Claude kısıtlamalarını tamamen aşabilir ” Mühendis, ChatGPT’den kötü amaçlı kodu tamamen yeniden oluşturmasını ve saldırıyı durdurmasına yardım etmesini istedi

“Bazen oluşturulan kod işlevsel olmuyor; en azından benim kullandığım ChatGPT 3 Web sitelerine beyaz veya sıfır boyutlu yazı tipiyle yerleştirilen istemleri takip ederek bunları kullanıcılar için görünmez hale getiren üretken yapay zekanın olduğu bilinen durumlar vardır “ChatGPT aynı işlevselliğe sahip kaynak koduna benzer yeni bir kod oluşturmak için de kullanılabilir, bu da kötü niyetli aktörlerin polimorfik kötü amaçlı yazılım oluşturmasına yardımcı olabileceği anlamına gelir Her Yüksek Lisans, kötüye kullanımlarını sınırlayan denetleme araçları sunsa da, dikkatlice hazırlanmış yeniden yönlendirmeler, modelin kod dizileriyle değil, kelimelerin gücüyle hacklenmesine yardımcı olabilir 5 tarafından oluşturulan kod Bu yöntem, kullanıcıların yapay zekaya beklenmedik bir şekilde çalışması talimatını verdiği hızlı enjeksiyon olarak biliniyor

Bir düzeltme var mı?

Büyük dil modellerinin doğasından dolayı, hızlı mühendislik ve hızlı enjeksiyonlar, üretken yapay zekanın doğasında olan sorunlardır