Nightshade, yapay zeka şirketlerini izin istemeden veri kullanmaktan vazgeçirmekle kalmayıp, aynı zamanda kullanıcıları bu üretken yapay zeka modellerinden herhangi birini kullanırken dikkatli olmaya da teşvik edebilir
Teknik, üretken yapay zeka modellerinin işe yaramaz sonuçlar üretmesine neden oluyor
Ancak model eğitmenler farklı savunmalar uygulayabilirAraştırma makalesine göre Nightshade zehir örnekleri, aşağıdaki resimde gösterildiği gibi 100’den az örnekte Kararlı Yayılım istemini bozabilir
Kaynak : “ZDNet
Sanatçıların eserlerinin izinsiz kullanılması sorununu hafifletmek için başka girişimlerde bulunuldu
Manipülasyon yapay zekanın denekleri birbiriyle karıştırmasına neden oluyorSanatçılar, Nightshade’i kullanarak eserlerinin piksellerinde insan gözüyle görülmeyen değişiklikler yapabiliyor ve bu da üretken yapay zeka modelinde “kaotik” ve “öngörülemeyen” kırılmalara neden oluyor
Zehirli verilerin modelden kaldırılması zordurEk olarak, yapay zeka şirketinin bozuk her numuneyi ayrı ayrı kaldırması gerektiğinden, zehirlenmiş verilerin modelden kaldırılması zordur MIT Teknoloji İncelemesiAraştırmaya özel bir bakış sunan kişi
Chicago Üniversitesi’ndeki araştırmacılar, geliştiricilerin çalışmalarında AI araçlarını eğitmesini önlemek için sanatçıların dijital sanatlarını “zehirlemelerine” olanak tanıyan yeni bir araç olan Nightshade’i yarattı
Üretken yapay zeka modellerinin ana itici güçlerinden biri “kazıma”dır
Yapay zekanın kazınması, çalışmaları yapay zeka modelleri aracılığıyla yeni sanat eserleri üretmek için kazınan sanatçılar üzerinde özellikle olumsuz bir ekonomik ve itibar etkisi yaratabilir
Örneğin, yukarıdaki örnekte yalnızca “köpek” terimi değil, aynı zamanda “yavru köpek”, “tazı” ve “husky” gibi eşanlamlılar da etkilenecektir Açıkçası, manipülasyon yapay zekanın denekleri birbiriyle karıştırmasına neden oluyor Bu, istemde yazılan metinle eşleşmeyen hatalı görüntüler üretmesine neden olur Ve bu nedenle bu verilerin sahiplerinin izni olmadan
Terimler arasındaki korelasyonun da yukarıdaki örnekte olduğu kadar doğrudan olması gerekmez
Örneğin yapay zeka modeli, bir köpeğin aslında bir kedi olduğuna inandırılarak kandırılabilir Yapay zeka şirketlerinin, genellikle çılgınca internet kaynaklarından veri toplayarak yapay zeka modellerini eğitmek için kullandıkları bir süreç
Ancak model eğiticileri, verilerinin zehirlenmesine ilişkin bu risklere karşı, veri filtreleme, konum tespit yöntemleri ve zehir giderme yöntemleri dahil olmak üzere farklı savunmalar uygulayabilir, ancak bu üç yöntem tamamen etkili değildir
Chicago Üniversitesi
Zehirlenme, belirli bir terimin zehirlenmesinin yanı sıra ilişkili terimleri de etkiler Getty Images Image Generator ve Adobe Firefly gibi görüntü üreten bazı yapay zeka modelleri, modellerini eğitmek için yalnızca sanatçı onaylı veya açık erişimli görüntüler kullanır ve karşılığında bir telafi programı uygular Ama belki bir çözüm vardır com”
genel-15