Üretken Veri Zekası

Filigranlama Yapay Zekası Yeterli Değil, Sahteciliğe Eğilimli: Son Araştırma

Tarih:

Yakın zamanda yapılan bir araştırma, yanlış bilgilerin üstesinden gelmek için yapay zeka tarafından oluşturulan içeriğe filigran eklemenin, filigranlar oluşturulup düzenlenebildiği için boşluklara sahip olduğunu gösterdi.

Geçtiğimiz Kasım ayında ChatGPT'nin piyasaya sürülmesiyle teşvik edilen üretken yapay zekanın ortaya çıkışıyla birlikte, internet giderek daha fazla yapay zeka tarafından oluşturulan içerikle dolup taştı, ancak Avrupa Birliği'nin kolluk kuvvetleriyle birlikte çoğu zaman insan yapımı içerikle veya hesaplamalı modellerle yapılmış içerikle karıştırılıyor. İnternet içeriğinin %90'ını uyarıyor 2026 yılına kadar yapay zeka tarafından oluşturulabilir veya düzenlenebilir.

Bu, yapay zeka tarafından oluşturulan içeriğe filigran eklemek için çevrimiçi platformlara yönelik çağrıların artmasına neden oldu, ancak Singapur'daki Nanyang Teknoloji Üniversitesi'nin yanı sıra Çin'deki Chongqing Üniversitesi ve Zhejiang Üniversitesi'ndeki araştırmacılar, yakın zamanda filigranların nihai çözüm olmadığını ortaya çıkardı.

Filigranların etkinliği

Yıllardır bir geçmişi var belgeleri işaretleme orijinalliğini ve sahipliğini kanıtlamak için Getty Images görüntü arşivi gibi filigran kataloğunda dijital görüntüler.

Asyalı araştırmacılar ise, derin sahtekarlıkların yayılmasını sınırlamanın bir yolu olarak görsellere, videolara ve yapay zeka tarafından oluşturulan diğer içeriklere filigran eklemenin kullanışlılığını değerlendirmek istediler.

Ön baskı sunucusu arXv'de yayınlanan araştırma, saldırganların filigran oluşturmak veya bunları yapay zeka tarafından oluşturulan içerikten kaldırmak için kullanabileceği iki yol olduğunu gösteriyor.

Makalenin ortak yazarı Guanlin Li, "Bir gece üretken modeller için yeni ve gelişmiş bir filigran keşfedip keşfedemeyeceğimizi tartıştık" dedi. Teknoloji keşfi.

Bu, şirketlerin ve bireylerin de IP'yi korumak veya "yasadışı kullanımı kısıtlamak" için içeriklerini filigranlarla etiketlemesiyle ortaya çıkıyor.

“Az önce dedim ki, Hey, neden mevcut filigran şemasına saldırmıyorsunuz? Filigranı kaldırabilirsek, bazı yasa dışı AIGC'ler (Yapay Zeka tarafından oluşturulan içerik) yapay zeka tarafından oluşturulmuş olarak değerlendirilmeyecektir. Bu internette çok fazla kaosa neden olabilir” dedi Li.

Ancak çalışma, yapay zeka tarafından oluşturulan fotoğraflarda filigran kaldırma veya sahtecilik için hesaplamalı bir yaklaşım sunuyor.

Ayrıca okuyun: ABD'li Akademisyen Yapay Zeka Geliştirmenin "Tamamen Pervasız" Olduğunu İddia Ediyor

Verilerin temizlenmesi

Hedef yapay zeka şirketinden, uygulamasından veya içerik oluşturma hizmetinden toplandıktan sonra verileri 'temizlemek' için halka açık bir gürültü giderme modeli kullanılır. Temizlenen bu verileri kullanarak son aşama olarak üretken bir rakip ağ (GAN) eğitilir.

Dikkat çekici bir şekilde araştırmacılar, GAN tabanlı modelin eğitimden sonra filigranları etkili bir şekilde kaldırabildiğini veya taklit edebildiğini buldu.

Li, yaklaşımlarını şöyle detaylandırdı: "Filigranlı içeriği tanımlamak istiyorsak, filigranlı içeriğin dağılımı orijinalinden farklı olmalıdır."

Li, "Buna dayanarak, eğer bu iki dağıtım arasında bir projeksiyon öğrenebilirsek, bir filigranı kaldırabilir veya taklit edebiliriz" diye ekledi.

İlk deneyler, yaklaşımlarının yapay zeka tarafından oluşturulan çeşitli fotoğraflardan hem filigran oluşturma hem de filigranları kaldırma konusunda çok iyi çalıştığını gösterdi.

Güneşin altında yeni bir şey yok

Göre Voxİnternetteki yanlış bilgi sorunları, ChatGPT gibi üretken yapay zeka araçlarının viral hale gelmesinden önce de her zaman mevcuttu. Ancak bu araçlar da dahil Döşeme, Midjourney ve Photoshop sahte görseller, videolar ve metinler oluşturmayı kolaylaştırdı.

Sahte ve gerçek görüntüler arasındaki karışıklığı azaltmak için, OpenAI en Döşeme katma Oluşturduğu görsellerin alt kısmında renkli şeritli bir filigran bulunurken Adobe'nin ayrıca bir etiketleme aracı da bulunuyor.

The EU Ayrıca çevrimiçi platformlara, kullanıcıların gerçek ve yapay zeka yapımı içerik arasında ayrım yapabilmelerini sağlamak için yapay zeka tarafından oluşturulan içeriğe filigran ekleme çağrısında bulundu.

Ancak çalışmanın sonuçları, AIGC'nin telif haklarını korumak için filigran kullanmanın güvenilirliği konusunda endişeleri artırıyor. Li, yaklaşımlarının veri dağıtımına dayandığını vurgulayarak, günümüzde kullanılan filigran sistemlerinin güvenliğinin önceden düşünüldüğü kadar güçlü olmayabileceğini öne sürdü.

Yapay zeka içeriğinde filigran kullanmanın zorlukları olsa da bu araştırma, yaratıcılığa da yer olduğunu gösterdi. Li ve meslektaşları, araştırmalarını paylaşarak üretken yapay zeka işletmeleri ve geliştiricilerinin daha karmaşık filigran teknikleri oluşturma veya AIGC'yi daha iyi güvenceye almak için farklı metodolojileri araştırmaya motive olacağını umuyorlardı.

Li, "Artık öncelikle yalnızca görüntü oluşturmak için değil, aynı zamanda diğer yapay zeka modelleri için de üretken modeller için yeni filigranlama şemaları geliştirmeye odaklandık" diye ekledi.

spot_img

En Son İstihbarat

spot_img