
NEW YORK — Sanatçılar, eserlerini inceleyen ve ardından tarzlarını kopyalayan yapay zeka tarafından kuşatılmış durumda ve bu kopyacı faaliyetleri engellemek amacıyla üniversite araştırmacılarıyla bir araya geldi.
ABD’li çizer Paloma McClain, birkaç yapay zeka modelinin sanatını kullanarak eğitildiğini ve bu süreçte kendisine hiç kredi veya tazminat gönderilmediğini öğrendikten sonra savunma moduna geçti.
“Bu beni rahatsız etti,” dedi McClain AFP’ye.
“Ben, gerçekten anlamlı teknolojik ilerlemenin etik bir şekilde yapılması gerektiğine inanıyorum ve bunun sonucunda herkesi yücelten bir şey olması gerekir, başkalarının zararına değil,” diye ekledi.
Sanatçı, Chicago Üniversitesi’ndeki araştırmacılar tarafından geliştirilen Glaze adlı ücretsiz bir yazılıma başvurdu.
Glaze, temelde insan gözü tarafından ayırt edilemeyen ancak bir dijital sanat eserini yapay zekâ için dramatik bir şekilde farklı gösteren pikselleri ayarlayarak, AI modellerine karşı düşündürücü bir şekilde işlev görüyor.
Glaze ekibinden bilgisayar bilimleri profesörü Ben Zhao, “Temelde, insan yaratıcılarını saldırgan ve istismar edici AI modellerine karşı korumak için teknik araçlar sağlıyoruz,” dedi.
Sadece dört ay içinde oluşturulan Glaze, yüz tanıma sistemlerini bozmak için kullanılan teknolojinin bir dalıdır.
“Problem ciddi olduğu için süper hızlı bir şekilde çalışıyorduk,” dedi Zhao, sanatçıları yazılım taklitçilerinden koruma konusunda aceleyle hareket ettiklerini belirtti. “Birçok insan acı çekiyordu.”
Generatif yapay zeka devleri, bazı durumlarda eğitim için veri kullanma anlaşmalarına sahip olsalar da, süpersmart yazılımın düşünme şeklini şekillendirmek için kullanılan dijital görüntülerin, seslerin ve metinlerin çoğu, açık onay olmadan internetten çekilmiştir.
Mart ayında piyasaya sürüldüğünden bu yana Glaze, Zhao’ya göre 1.6 milyondan fazla kez indirildi.
Zhao’nun ekibi, Nightshade adlı bir Glaze geliştirmesi üzerinde çalışıyor ve bu, AI’yi karıştırarak savunmaları artırır, örneğin ona bir köpeği bir kedi olarak yorumlaması için yönlendirir.
“Nightshade’i kullanacak yeterince sanatçı varsa ve yeterince zehirli görüntüyü çevrimiçi olarak kolayca bulunabilir hale getirirlerse, Nightshade’in farkedilir bir etkisi olacağına inanıyorum,” dedi McClain.
Zhao’nun ekibine, Nightshade’i kullanmak isteyen birkaç şirketin başvuruda bulunduğunu belirttiği bildirildi.
“The goal is for people to be able to protect their content, whether it’s individual artists or companies with a lot of intellectual property,” Zhao said.
Viva Voce
Spawning adlı bir startup, çevrimiçi bir mekandan büyük miktarda görüntü toplama girişimlerini tespit eden Kudurru yazılımını geliştirdi.
Bir sanatçı daha sonra erişimi engelleyebilir veya talep edilenle
eşleşmeyen görüntüleri göndererek, AI’ya neyin ne olduğunu öğretmek için kullanılan veri havuzunu kirletebilir.
Kudurru ağına 1.000’den fazla web sitesi entegre edilmiştir.
Spawning, ayrıca, digitize edilmiş eserlerin bir AI modeline beslenip beslenmediğini bulmak ve sanatçılara gelecekte böyle bir kullanımı engelleme olanağı sağlayan haveibeentrained.com adlı bir web sitesi başlattı.
Görseller için savunmalar arttıkça, Missouri’deki Washington Üniversitesi’ndeki araştırmacılar, AI tarafından kopyalanan seslere karşı AntiFake yazılımını geliştirdi.
AntiFake, insanların duyamayacağı gürültüler ekleyerek insanların konuşmalarının dijital kayıtlarını zenginleştirir ve “insan sesi sentezlemeyi imkansız hale getirir,” dedi Zhiyuan Yu, projenin arkasındaki doktora öğrencisi.
Program, sadece AI’nın yetkisiz eğitimini durdurmaktan ziyade “deepfake” adı verilen, ünlülerin, politikacıların, akrabaların veya başkalarının gerçekte yapmadıkları bir şeyi yaparken veya söylerken gösteren sahte ses parçaları veya videoları önlemeye yöneliktir.
Zhiyuan Yu‘ya göre, popüler bir podcast, üretimlerinin kaçırılmasını engellemek için AntiFake ekibine başvurdu.
Şu ana kadar serbestçe kullanılabilen yazılım şimdiye kadar insanların konuşmaları için kullanıldı
Kaynak VOA
Discover more from Capslock TV Teknoloji Haberleri - En Güncel Teknoloji Gelişmeleri ve İncelemeleri
Subscribe to get the latest posts sent to your email.