Koalisyon Lantern’i denetleyecek ve veri paylaşımına ilişkin net yönergeler ve kurallar oluşturmaktan kendisinin sorumlu olduğunu söylüyor Birkaç grup, Apple’ın artık iptal edilen otomatik iCloud fotoğraf kütüphanesi CSAM tarama özelliğinde de benzer sorunların ortaya çıkabileceği konusunda uyardı Kayıp ve İstismara Uğrayan Çocuklar Merkezi Çevrimiçi çocuk cinsel istismarıyla mücadele etmek amacıyla ortak bir amaca sahip bir grup teknoloji işletmesi olan Tech Coalition, bugünkü duyuruda şunu yazdı Programın, potansiyel kurbanları başka platformlara taşıyarak avcıların tespit edilmekten kaçınmasını engellemeye yönelik bir girişim olduğu belirtiliyor Şirketler, OCSEA politikasını ihlal ettiği bilinen e-posta adresleri veya kullanıcı adları, çocukların cinsel istismarına yönelik materyal (CSAM) karmaları veya CSAM anahtar kelimeleri gibi sinyaller gördüklerinde, bunları kendi sistemlerinde işaretleyebilirler ”
Bunun gibi programların en büyük zorluklarından biri, yeni sorunlar yaratmadan etkili olmasını sağlamaktır
genel-2
Şu ana kadar Lantern’e katılan şirketler arasında Discord, Google, Mega, Meta, Quora, Roblox, Snap ve Twitch yer alıyor Programın bir parçası olarak şirketlerin zorunlu eğitimleri ve rutin kontrolleri tamamlaması gerekiyor ve grup, politikalarını ve uygulamalarını düzenli olarak gözden geçirecek
a:hover]:text-black [&>a:hover]:shadow-underline-black dark:[&>a:hover]:text-gray-e9 dark:[&>a:hover]:shadow-underline-gray-63 [&>a]:shadow-underline-gray-13 dark:[&>a]:shadow-underline-gray-63">Fenerin nasıl çalıştığını gösteren bir görselleştirme 000’den fazla Facebook Profili, Sayfası ve Instagram hesabını” kaldırmak ve bunları Ulusal’a bildirmek için kullanıldığı belirtildi Koalisyon üyeleri son iki yıldır Lantern’i geliştiriyor ve grup, teknik çözümler üretmenin yanı sıra programı “uygunluk incelemesinden” geçirmesi, yasal ve düzenleyici gerekliliklerle uyumlu ve “etik açıdan uyumlu” olmasını sağlaması gerektiğini söylüyor
Lantern adlı yeni bir program, Meta ve Discord gibi çevrimiçi şirketler arasında platformlar arası sinyal paylaşımı yoluyla çevrimiçi çocuk cinsel istismarı ve istismarıyla (OCSEA) mücadele etmeyi amaçlıyor a:hover]:text-gray-63 [&>a:hover]:shadow-underline-black dark:[&>a:hover]:text-gray-bd dark:[&>a:hover]:shadow-underline-gray [&>a]:shadow-underline-gray-63 dark:[&>a]:text-gray-bd dark:[&>a]:shadow-underline-gray">Resim: Teknoloji Koalisyonu
Meta yazdı Programa katılımını duyuran bir blog gönderisinde Lantern’in pilot aşamasında programın ortaklarından biri olan Mega tarafından paylaşılan bilgilerin “ihlal eden 10
Koalisyonun duyurusunda ayrıca Discord’un güven ve güvenlik sorumlusu John Redgrave’den alıntı yapılıyor: “Discord aynı zamanda program aracılığıyla bizimle paylaşılan veri noktalarına göre hareket etti ve bu da birçok dahili soruşturmaya yardımcı oldu 2021’de yaşanan bir olayda, bir baba, çocuğunun kasık enfeksiyonu resimleri nedeniyle Google’ın kendisini CSAM için işaretlemesinin ardından polis tarafından soruşturuldu
Lantern, şirketlerin verilere katkıda bulunabileceği ve kendi platformlarını kontrol edebileceği merkezi bir veritabanı görevi görüyor