Üretken Veri Zekası

Eski Başkan Yardımcısı, Telif Hakkı Endişeleri Nedeniyle İstikrarlı Yapay Zekadan Ayrılıyor – Decrypt

Tarih:

Stability AI'nın ses sorumlusu, AI geliştiricisinin, üretken AI modelini telif hakkıyla korunan çalışmalarla eğitmeyi haklı göstermesi nedeniyle şirketten ayrılıyor.

"Stability AI'de Ses ekibine liderlik etme görevimden istifa ettim çünkü şirketin, telif hakkıyla korunan çalışmalar üzerinde üretken AI modellerinin eğitiminin 'adil kullanım' olduğu yönündeki görüşüne katılmıyorum." yazdı Ed Newton-Rex, şirketin sesten sorumlu eski başkan yardımcısı.

Newton-Rex, eski meslektaşı ve kurucusu Emad Mostaque'a ve bu noktaya kadar yaptıkları çalışmalara şükranlarını dile getirdi ancak Stability AI'nin model eğitiminde telif hakkıyla korunan materyalleri kullanma konusundaki resmi duruşunu değiştiremeyeceğini söyledi. Bir işaret etti 22 sayfa Eski işvereninin ABD Telif Hakkı Bürosu'na sunduğu, üretken yapay zeka hakkında yorum yapan ve yeni ortaya çıkan teknolojiyi "adil kullanımla korunan mevcut içeriğin kabul edilebilir, dönüştürücü ve sosyal açıdan yararlı bir kullanımı" olarak nitelendiren yorum.

Newton-Rex, "Buna katılmıyorum çünkü Kongre'ye göre kopyalama eyleminin adil kullanım olup olmadığını etkileyen faktörlerden biri 'telif hakkıyla korunan çalışmanın potansiyel pazarı veya değeri üzerindeki kullanımın etkisi'dir" dedi. “Günümüzün üretken yapay zeka modelleri, üzerinde eğitim aldıkları telif hakkıyla korunan çalışmalarla rekabet edebilecek çalışmalar yaratmak için açıkça kullanılabilir. Bu nedenle, telif hakkıyla korunan çalışmaların bu nitelikteki üretken yapay zeka modellerini eğitmek için kullanılmasının nasıl adil kullanım olarak değerlendirilebileceğini anlamıyorum."

Üretken Aİstemleri kullanarak metin, resim, müzik ve video oluşturan, bir veriden çizim yapan yapay zeka modellerini kastediyorum. masif gövde eğitim materyali - çoğunlukla açık internetten toptan olarak toplanan materyal. Sonuç olarak telif hakkı, teknolojiyle ilgili tartışmanın merkezi bir parçası haline geldi.

Mostaque, gönderilen yoruma doğrudan bir bağlantı sağlayarak Newton-Rex'in Twitter yazışmasına yanıt verdi.

Mostaque, "Sizinle çalışmak harikaydı [ve] bu önemli bir tartışma" dedi cevap.

Newton-Rex, adil kullanım yasalarının üretken yapay zeka modelleri düşünülerek tasarlanmadığını ve adil kullanım doktrini kapsamındaki eğitim modellerinin yanlış olduğunu söyledi. Yalnızca yaratıcıları istismar etmeyen üretken yapay zekayı, sanatçıların izni olmadan modellerini iş üzerinde eğiterek destekleyebileceğini söyledi.

Temmuz ayından bu yana Stability AI, Midjourney ve Deviant Art bir projede yer alıyor. dava telif hakkı ihlali iddialarına dayalı olarak AI görüntü oluşturucularına karşı. Ekim ayında bir federal yargıç işten İllüstratör Sarah Andersen'ın da aralarında bulunduğu bir grup sanatçının Midjourney ve Deviant Art'a yönelik iddialarının çoğu, ancak Stability AI'ye karşı açılan davanın ilerleyebileceğini söyledi.

Newton-Rex, "Milyarlarca dolar değerindeki şirketler, yaratıcıların çalışmaları üzerinde üretken yapay zeka modellerini izinsiz olarak eğitiyor ve bunlar daha sonra birçok durumda orijinal çalışmalarla rekabet edebilecek yeni içerik oluşturmak için kullanılıyor" diye tekrarladı. "Yaratıcı sanatların ekonomisini yaratıcıların telif haklarına dayanacağı şekilde kurmuş bir toplumda bunun nasıl kabul edilebilir olduğunu anlamıyorum."

Bu yılın başlarında, şu anda çözülmüş olan WGA grevi kızışıyordu, oyuncu ve bilgisayar bilimcisi Justine Bateman Üretken yapay zekanın eğlence sektörünü nasıl altüst edebileceğine dair alarmı çaldı ve bu nedenle tarihi WGA ve SAG-AFTRA çarpar.

Newton-Rex sözlerini şöyle tamamladı: "Eminim ki bu üretken yapay zeka şirketlerinde 'adil kullanım' iddiasının yaratıcılar için adil olmadığını düşünen tek kişi ben değilim." "Umarım başkaları da içeride veya kamuoyu önünde sesini yükseltir ve böylece şirketler, yaratıcıları sömürmenin üretken yapay zekada uzun vadeli çözüm olamayacağını fark ederler."

Düzenleyen ryan ozawa.

Kripto haberlerinden haberdar olun, gelen kutunuzda günlük güncellemeler alın.

spot_img

En Son İstihbarat

spot_img