15 C
İstanbul
Cuma, Kasım 22, 2024

Satın Al

spot_img

Yapay zeka eğitiminde çocukların cinsel istismar görüntülerinin kullanıldığı bulundu!

Yapay zeka eğitimlerinde çocukların cinsel istismarına ilişkin görsellerin kullanıldığı tespit edildi. Araştırmacılar, Stable Diffusion tarafından kullanılan LAION-5Band’ın binlerce malzeme içerdiğini buldu. Stanford İnternet Gözlemevi programı, popüler bir yapay zeka görüntü oluşturma eğitim setinin çocuk istismarı görüntülerine bağlantılar içerdiğini ve yapay zeka modellerinin kötü amaçlı içerik üretmesine izin verdiğini buldu.

5Band
PhotoDNA gibi CSAM tanımlama platformlarına sunuldu

Stable Diffusion geliştiricisi Stability AI tarafından kullanılan LAION-5B veri setinin, sosyal medyadan ve popüler yetişkin web sitelerinden alınan en az 1.679 yasadışı görsel içerdiği söyleniyor. Yapay zeka eğitim verileri endişe verici Araştırmacılar, varsa ne kadar çocuk cinsel istismarı materyali (CSAM) bulunduğunu görmek için Eylül 2023’te LAION veri kümesini taramaya başladı. Araştırmacılar görsellerin hashtag’lerine veya etiketlerine baktılar.

Toplanan veriler PhotoDNA gibi CSAM tanımlama platformlarına sunuldu ve Kanada Çocuk Esirgeme Kurumu tarafından doğrulandı. LAION web sitesine göre bu veri seti görüntü arşivlerini saklamıyor. İnterneti tarar ve çekilen görsellere ve alternatif metne bağlantılar içerir. Google Image’ın metinden görüntüye yapay zeka aracının yalnızca araştırma amacıyla piyasaya sürülen ilk sürümü, LAION’un eski bir sürümü ve veri kümelerinin farklı bir çeşidi olan LAION-400M, 5Band üzerinde eğitildi.

Şirket, LAION veri kümelerinin daha sonraki yinelemelerde kullanılmayacağını belirtiyor. Stanford raporu, Imagenand’ın 400Mand’de “pornografik görüntüler, ırkçı hakaretler ve zararlı sosyal stereotipler dahil olmak üzere büyük miktarda uygunsuz içerik” geliştirdiğini iddia etti. İçinde bulduğunu bildirdi Öte yandan veritabanını yöneten kar amacı gütmeyen kuruluş LAION, yaptığı açıklamada zararlı içeriğe sıfır tolerans gösterdiğini söyledi. Bunun kendi politikası olduğunu ve veri setlerini geçici olarak kaldırdığını söyledi. Bu arada Stability AI, platformlarının kötüye kullanılmasına karşı yönergeleri olduğunu vurguladı ve modellerini LAION-5B üzerinde eğittiğini ancak veri kümesinin bir kısmına odaklandığını ve güvenliği sağlamak için ayarladığını söyledi. Stabil Difüzyon 1.5’in kaldırılması önerilir Stanford araştırmacıları, istismar görüntülerinin varlığının her zaman eğitimli modelleri etkilediği anlamına gelmediğini ancak modellerin yine de görüntülerden bir şeyler öğrenebileceğini söylüyor.

Araştırmacılar ayrıca sorunlu içeriğin tamamen kaldırılmasının, özellikle de bunu yapmak için eğitilmiş yapay zeka modelleriyle zor olduğunu kabul ediyor. Stable Diffusion 1.5 gibi LAION-5B ile eğitilmiş modellerin mümkünse kullanımdan kaldırılmasını ve kullanımdan kaldırılmasını önerdiler. Öte yandan Google, Imagenand’ın yeni bir sürümünü yayınladı ancak LAIONand’ı kullanmaması dışında hangi veri kümesi üzerinde eğitildiğini kamuya açıklamadı.

Kaynak: Donanım Haber


Capslock TV Teknoloji Haberleri - En Güncel Teknoloji Gelişmeleri ve İncelemeleri sitesinden daha fazla şey keşfedin

Subscribe to get the latest posts sent to your email.

İlgili Makaleler

Bir Cevap Yazın

Bağlı kalın

0BeğenenlerBeğen
0TakipçilerTakip Et
6TakipçilerTakip Et
29,032TakipçilerTakip Et
0AboneAbone Ol
- Advertisement -spot_img

En son makaleler

Erişilebilirlik Araçları