İstikrarlı Atıf, Yapay Zeka Sanat Kaynaklarını İzliyor: Yeni Yaklaşım mı, Çıkmaz Yol mu?

Adanali

New member


  1. İstikrarlı Atıf, Yapay Zeka Sanat Kaynaklarını İzliyor: Yeni Yaklaşım mı, Çıkmaz Yol mu?

Stable Atıf, görüntülerin orijinal kaynağını belirlemek için tasarlanmış yeni bir araçtır. Editörlerine göre algoritma, bildiğimiz kadarıyla eğitim veri setinden AI çıktısına en yakın görüntüleri seçiyor. SSS’ye göre amaç, çalışmaları eğitim için kullanılan sanatçıları doğru bir şekilde tanımaktır. Araç şu anda benzer görselleri bulabiliyor ancak bunları henüz bir sanatçıya veya içerik oluşturucuya atayamıyor.


Sanatçıları çalışmaları için atayın


Aracın arkasında, yapay zekayı anlaşılır kılmak isteyen Chroma adlı Kaliforniya merkezli bir yapay zeka girişimi var. Kurucuları Jeff Huber ve Anton Troynikov, kendi ifadelerine göre, görsellerin haklarını kaydettirmek ya da modellerini görsellerle eğitmek gibi bir zahmete girmiyorlar. Sanatçılar, reprodüksiyon telif ücreti almak için eserlerinin uygun şekilde alıntılanmasına bağlıdır. Bu nedenle iki geliştirici web sitesindeki motivasyonlarını şu şekilde açıklıyor: Yapay zeka insanlara hizmet etmeli, onları yabancılaştırmamalı. Çalışmaları, olası rol modellere görüntüler atamak için kullanılabilecek bilgileri erişilebilir kılmayı amaçlıyor.

Araçla depolanan belgelere giden web bağlantısı çalışmıyor, ancak bunun için bir Twitter sayfası var ve Huber ve Troynikov profillerini birbirine bağladı. Bunları Discord’da da bulabilirsiniz. Geliştiricilerin kendilerinin de belirttiği gibi, aracın 1. sürümü henüz tamamen kararlı görünmüyor: araç bir beta aşamasında. Eğitim süreci “gürültülü” ve eğitim materyalleri bazı hatalar ve fazlalıklar içeriyor. İkili, bizi izlemeye devam etmek ve “her tür üretken model için” kaynak malzeme özelliğini geliştirmek istiyor. Takviye arıyorlar. Kararlı atıf web sitesinde kanıtlanabilir.


Çıkan ne çıkıyor?


Bununla birlikte, bu yöntem teknik olarak oldukça sorgulanabilir bir varsayıma dayanmaktadır: AI oluşturucuları tarafından oluşturulan görüntüler genellikle yenidir ve eğitim veri setinde aynı biçimde mevcut değildir. UC Berkeley, Princeton ve ETH Zürih’ten araştırmacılarla işbirliği içinde Google ve DeepMind tarafından finanse edilen bir çalışma, araştırmacıların Stable Diffusion ve Google Imagen gibi modellerden bazı görüntüler elde etmek için metin istemlerini kullanabildikleri için 2023 Şubatının başlarında heyecan yarattı. eğitim veri setinde çok benzer görünüyor (MIT Technology Review şunu bildirmişti: “AI, gerçek insanların resimlerini ve telif hakkıyla korunan içeriği tükürüyor”).

En azından ne Twitter’da özet Kenara düşen, “çok benzer” olarak tanımlanabilecek görüntülerin oranının ne kadar küçük olduğudur. Stable Diffusion için araştırmacılar, eğitim veri setindeki orijinal görüntülere çok benzeyen oluşturulan 175 milyon test görüntüsünden 109’unu bulabildiler (gösterilen örnekler aynı değil, sadece “yakın kopyalar”). Daha sonra bir Twitter kullanıcısı, eğitim veri setinden görüntülerin hedeflenen yeniden yapılandırılmasına işaret ederek bu konuda yorum yapar. piyangoyu kazanmak kadar zor. Makalede açıklanan yöntemin (“Difüzyon modellerinden eğitim verilerinin çıkarılması”) devam eden telif hakkı davalarında başarılı bir şekilde kullanılıp kullanılmayacağı henüz belli değil.


Mor bir elma düşünmeyin – oops


Görüntü üreteçleri mevcut görüntüleri kopyalamaz veya bir avuç dolusu modeli yeni bir şeyde bir araya getirmez, bunun yerine milyonlarca görüntüden oluşan veritabanının tamamı eğitim için kullanılır ve ardından model ağırlıkları aracılığıyla modelin davranışını ve doğasını, yeteneği de dahil olmak üzere soyut bir biçimde belirler. metin özelliklerini görüntülemek için. Süreç, insan imaj algısına benzer şekilde çağrışımsal görünmektedir. “Elma” gibi bir terimle bir şey hayal edersek, kafamızda az çok net bir resim var, ancak standart bir model yok. Akla gelen görüntü, deneyimlerimize ve şimdiye kadar neleri ve ne kadar gördüğümüze bağlıdır.




Bauhaus tasarımı, minimal, elma duvar kağıdı, soyut


“Bauhaus tasarımı, minimal, elma duvar kağıdı, soyut” – Lexica.art


Bir kafede oturup bir dilim elmalı turta yiyip Naschmarkt’tan iki kilo elma alsalar bile, iki kişinin aklında aynı görüntü olmaz. Birisi bizden “boyalı bir elma”, “denizin dibindeki bir elma”, “uçan bir elma bardağı” veya belki de bir “edebi elma” hayal etmemizi isterse, sayısız çağrışım somut hale gelir – biri The Big Apple New York’u görür, diğerleri Ernst Fuchs’un Adam ve Havva’sı veya tuval üzerine bir Magritte elması.

çağrışımsal zeka


Yapay zeka, elma, tarçın ve çırpılmış krema ile kahve yılanına (aka: dünyanın şehvetli deneyimi) kendi yolculuğundan yoksun olsa da, üretken bir yapay zeka sistemi içinde işler benzer şekilde ilişkisel olmalıdır. Bilgi, yapay zeka tarafından üretilen her görüntüye akar: insanların oluşturacağı ve bunları görüntü açıklamaları da dahil olmak üzere mevcut görüntülerde oluşturacağı şekilde öğrenilen sembolik bağlantılar. Potansiyel olarak tüm eğitim veri setinden ve neredeyse sonsuz olası kombinasyon havuzundan. Hiçbir bilgi istemi yeniden girildiğinde aynı sonucu vermez. Bilgisayar tarafından üretilmiş bir görüntüye “özellikle” benzeyen bazı görüntülerin tamamen harici terimlerle tanımlanması mümkündür. Ancak kendi içinde benzerlik, makine tarafından üretilen ilgili görüntünün kısmi yazarlığının kanıtı değildir.

Artık popüler olan modeller, internette ücretsiz olarak bulunabilen ve genellikle insan yapımı olan modellerle büyük görüntü veritabanları kullanılarak önceden eğitilmiştir. Stili taklit etmede özellikle iyidirler. Ancak stilin telif hakkı yoktur. DALL E, Stable Diffusion veya Google Imagen gibi görüntü sentezi yapay zeka sistemleri, eğitim veri kümesinden görüntüleri seçmez ve ardından bunları yeni görüntülerde birleştirmez. Resimsel bilgi, belki de rüyadaki bir kişininkine benzer bir tür belirsizlik halinde, gizli bir alanda çözünmüş olarak bulunur.

Kaynakların çıktıya atanması kolayca mümkün olsaydı, yeniden kullanım ve daha fazla kullanım, bunları görüntü veritabanlarıyla karşılaştırarak, hatta belki de bir şablonun çıktıyı ne kadar “etkilediğini” ölçerek kolayca tanımlanabilirdi. Bununla birlikte, AI modelleri orijinal görüntülere erişmez veya daha fazla değiştirmez (iç boyama veya dış boyama gibi bir mod dışında). Bunun yerine, eğitim sürecinde metin girdisiyle eşleşebilecek yeni görüntüler oluşturmayı öğrenirler. Eğitim veri kümesindeki bireysel işlerin üretilen çıktıya ne ölçüde katkıda bulunduğu, “optik benzerlik” ile çözülemez.

Editörler, Stable Difüzyon projesinden iki araştırmacıyla yapılan bir arka plan tartışmasında, bir çıktı görüntüsünün eğitim verilerinden alınan belirli bir görüntüye özellikle benzemesinin tesadüf olduğunu öğrendi. Yalnızca eğitim veri setinde çok sayıda görüntü varsa ve bu nedenle model üzerinde daha güçlü bir şekilde etkilendiyse ortaya çıkabilir. Ancak bu istenmeyen bir davranış olur: Araştırma ekipleri modeller oluştururken bu tür aykırı değerleri önlemek için kopyaları filtreler.

Tartışmalı soru: sanat kime aittir?


AI tarafından üretilen çalışmaların yazarlığı şu anda çekişme altında: AI görüntü oluşturucular, görüntü içeriğini ve insan dünyasındaki terimlerle anlamsal bağlantıları öğrenmek için yukarı akış eğitiminde hala insan tarafından oluşturulan görüntülere ihtiyaç duyuyor. Eğitim verileriniz, yazarlar tarafından bu formda ve bu amaç için tasarlanmayan internetten alınmıştır. Sanatçılar, çalışmalarının benzer görüntüleri otomatik olarak üretebilen sistemleri eğitmek için izinsiz kullanılmasını eleştiriyor.

AI sanatında çalışmalarını yeniden keşfettiklerini düşünen insanlar, telif hakkı alınmış ve ticari markalı bazı çalışmaların model eğitim verilerine akmış olabileceğini söylüyor. Bu nedenle, korunan malzemeyi tespit etmek veya hariç tutmak için uygun araçlar ve doğrulanabilir yöntemler arzu edilir. Birinci sınıf davalar başladı ve Getty Images, Alman araştırmacılar tarafından oluşturulan Stable Diffusion açık kaynak modelinin baş yatırımcısı Stability AI’ye dava açıyor. Model çıktısı için mevcut kullandıkça öde sistemlerinden telif ücreti toplamak için sanatçıların bunu ve çalışmalarının çıktı görüntüsünde ne ölçüde katkıda bulunduğunu ve hala “içerildiğini” gösterebilmesi gerekir.

ayrıca oku

Daha fazla göster



daha az göster



Üretken Yapay Zeka için Açıklanabilirlik


İzole araçlar ve stüdyolar artık ortaya çıksa bile, temel soru şu an için açık kalıyor – çünkü açıkça en yakın görüntüler hiçbir zaman çıktı için tek ilham kaynağı değil. Üretken yapay zeka modellerinde, çıktı kaynaklarını bulmak için farklı yaklaşımlar uygulanmaktadır. Çıktının açıklanabilirliği, ChatGPT gibi metin üreten yapay zeka ürünleri için de bir rol oynar (çünkü modeller halüsinasyon görme eğilimindedir) ve araştırma, ilkini sunar. AI’yı daha anlaşılır, daha adil ve daha güvenli hale getirmeye yönelik heyecan verici yaklaşımlar.

Nihayetinde, üretken yapay zeka, modellerin eğitim verilerinin bir kısmını ezberleyip öğrenmedikleri veya eğitim yoluyla dünyanın bir tür modelini edinip edinmedikleri sorusundan başka bir şey değildir. Bu soruyla ilgileniyorsanız, buradan daha fazlasını okuyabilirsiniz: “Stokastik papağan mı yoksa dünya modeli mi? Büyük dil modellerini nasıl öğrenirler?“.

Ayrıca bakınız:


(onun)



Haberin Sonu
 
Üst