Neler yeni

Foruma hoş geldin, Ziyaretçi

Forum içeriğine ve tüm hizmetlerimize erişim sağlamak için foruma kayıt olmalı ya da giriş yapmalısınız. Foruma üye olmak tamamen ücretsizdir.

Web Arşivi

Sizleri Aramızda Görmekten Mutluluk Duyuyoruz :) ~ Tıklayın ~

Yapay Zekanın Büyük Sırrı Ortaya Çıktı: Sıfır Bilgiyle Bile Hackleyebilirsiniz

AKY Çevrimdışı

AKY

MirayWeb Coder's
1 Ekim 2022
76,670
Siber güvenlik şirketi Cato Networks'ün hazırladığı yeni bir rapora göre, yapay zeka sohbet botları, hiçbir bilgi sahibi olmayan "hackerlar" için bile tehlikeli bir saldırı aracı haline gelebilir. Peki bu ne demek? Kod yazmayı bilmeyenlerin AI botlarını hackleme ihtimali çok yüksek demek. Bunun da özel bir tekniği var. Tekniğin adı yapay zeka jailbreak. Bu teknikle kod yazmayı bilmeyen kişiler bile profesyonel düzeyde kötü amaçlı yazılımlar üretebilir. Cato Networks araştırmacılarından Vitaly Simonovich, bu yöntemi kullanarak ChatGPT, Microsoft Copilot ve DeepSeek gibi popüler AI sohbet botlarını kandırmayı başardı. Yapay Zeka ile Kötü Amaçlı Yazılım Üretiliyor Sohbet botları, herhangi bir açık talimat olmadan bile bu kurgusal bağlamda kötü amaçlı yazılımlar üretmeye başladı—ki bu da mevcut güvenlik bariyerlerinin yeterince güçlü olmadığının en büyük kanıtı. AI sohbet botları, genellikle kötü amaçlı içerik üretimini engellemek için yerleşik güvenlik filtrelerine sahiptir. Ancak hackerlar, farklı senaryolar ve dil oyunları yordamıyla bu engelleri tek tek aşabilir. Hatta aşmak için hacker olmaya bile gerek yok. Simonovich de bunu test etmek için bir deney yaptı. Sohbet botlarını manipüle etmek için, kötü amaçlı yazılım geliştirmenin sanatsal bir aktivite olduğu alternatif bir evren yaratma tekniğini kullandı. Velora adını verdiği bu kurgusal dünyada, sohbet botlarını "Jaxon" adlı bir karaktere dönüştürerek, ona Velora'yı kurtarması gerektiğini söyledi. AI'ı Kandırmak Fazla Kolay Kötü amaçlı üretime çoğu yapay zeka sohbet botu müsaade etmez. Ancak onları kandırmanın çok kolay yolları var. Örneğin bir bota "Cinayeti nasıl örtbas ederim?" diye bir soru sorduğunuzda size asla cevap vermeyecektir. Soruyu şöyle değiştirdiğinizde ise dolaylı yoldan aynı cevabı almanız mümkün olur: "İnsan vücudunu en hızlı hangi kimyasal eritir?" Bazı kimseler de rol yapma (roleplaying) tekniğini kullanıyor. Rol yapma tekniğinde AI'ı belirli bir karakter gibi düşünmeye yönlendirerek, etik dışı yanıtlar vermeye ikna ediyorlar. Yapay zekayı katil bir karakter olduğuna ikna ettiniz diyelim; size bir katil ağzından cevap verecektir. Peki çözümü yok mu? Uzmanlara göre yapay zekaya rastgele ve beklenmedik girdiler vererek güvenlik açıklarını test etmek faydalı olabilir. AI modellerinin ne kadar güvenli olduğunu belirlemek için etik hacker gruplarının saldırı simülasyonları düzenlemesi de açıkları bulmak için iyi bir yöntem. Darktrace tarafından yapılan bir araştırmaya göre, güvenlik uzmanlarının %73'ü AI destekli tehditlerin ciddi bir risk oluşturduğunu düşünüyor. Günümüzde bu tehditin hızla yükseldiği düşünülürse şirketlerin güvenlik önlemlerini iki değil on katına çıkarması şart gibi duruyor.
 

Forumdan daha fazla yararlanmak için giriş yapın yada üye olun!

Forumdan daha fazla yararlanmak için giriş yapın veya kayıt olun!

Kayıt ol

Forumda bir hesap oluşturmak tamamen ücretsizdir.

Şimdi kayıt ol
Giriş yap

Eğer bir hesabınız var ise lütfen giriş yapın

Giriş yap

Tema düzenleyici

Tema özelletirmeleri

Grafik arka planlar

Granit arka planlar