Yeni bir çalışma, yapay zekayı sentetik verilerle eğitmenin onu “saçma” demeye mahkum ettiğini gösteriyor

achievable

New member
Kullanmak veri tarafından oluşturuldu yapay zeka (AI) bu sistemleri eğitmek ölüm cezası olabilir. Bu, bu çarşamba günü Nature bilimsel dergisinde yayınlanan ve modellerin geri beslenmesi konusunda uyarıda bulunan yeni bir çalışmayla ortaya çıktı. makine öğrenme Sentetik verilerle “kaçınılmaz olarak” sonuçların bozulmasına, modelin çökmesi olarak bilinen bir zehirlenmeye yol açar.



Bilgisayar bilimcisi Ilia Shumailov'un liderliğindeki araştırma, Google DeepMindözyinelemeli döngünün beslenmede rol oynadığını gösterir yapay zeka Yapay zeka tarafından oluşturulan veriler tek başına sistemin öğrenme yeteneğini azaltır, işleyişini bozar ve sonunda yanlış bilgi sağlayarak orijinal içeriği “ilgisiz saçmalık” ile değiştirir.


Son bir buçuk yılda, teknolojik ekosistem sözde popülerliğin ortaya çıkışını ilk elden deneyimledi. Üretken Yapay Zekadayalı sistemler harika dilsel modeller (LLM)'den çıkarılan verilerle eğitilmiş internet yazılı mesajlardan görüntü ve seslere kadar her türlü içeriği üretebilmek. Şimdilik bu araçların çoğu, örneğin SohbetGPTinsan yapımı içerikle eğitilir.


“Kaçınılmaz” çöküş



Ancak üretken yapay zekanın sektörde ortaya çıkardığı heyecan ve hızlandırılmış yayılımı bu gerçeği değiştirebilir. Madrid Özerk Üniversitesi (UAM) Bilgisayar Dilbilimi Laboratuvarı araştırmacısı Pablo Haya Coll, “Bu yüksek lisanslar daha fazla benimsendikçe, internette daha fazla sentetik veri ortaya çıkıyor ve bu da varsayımsal olarak gelecekteki sürümlerin eğitimini etkileyebilir” diye uyardı. Bilgi Mühendisliği Enstitüsü'nün (IIC) İş ve Dil Analitiği (BLA) alanının yöneticisi.



Bu nedenle çalışmanın yazarları, yapay zeka modellerinin yalnızca yapay olarak üretilen sentetik içerikle eğitilmesi durumunda ortaya çıkabilecek riskleri araştırıyor. Testlerinden biri ortaçağ mimarisiyle ilgili bir metindi ve dokuzuncu nesilde makinenin tekrarladığı sonuç “tavşanların bir listesi”ydi.


Bask Ülkesi Üniversitesi (UPV/EHU) Sistem Mühendisliği ve Otomasyon profesörü Víctor Etxebarria'ya göre, bu modelleri eğitmek için sentetik verilerin kullanılması, yapay zekanın “gerçekten güvenilir bir işlev görmediği” anlamına geliyor. Araçlar “sorunlarımızı çözmemize yardımcı olmakla kalmıyor, aynı zamanda potansiyel olarak zararlı.”


Teorik çalışma



Universitat Oberta de Catalunya'daki (UOC) Yapay Zeka ve Toplum için Veri grubunun baş araştırmacısı Andreas Kaltenbrunner, “kaliteli” olmasına rağmen çalışmanın değerinin “teorik düzeyde” olmasından üzüntü duyuyor. Çünkü sonuçları gelecekteki yapay zeka modellerinin yalnızca sentetik verilerle eğitileceği varsayımına dayanıyor. “İnsanlar tarafından üretilen veriler, yapay zeka tarafından üretilen verilerle karıştırılırsa sonucun ne olacağı belli değil ve yapay zeka ile insanlar arasında hibrit bir şekilde üretilen (giderek sıklaşan) veriler de eklenirse ne olacağı daha da belirsiz.” ekler.


Bu varsayımsal senaryonun ötesinde, çalışma, matematiksel modellerin kullanımı yoluyla yapay zekanın kendisini eğitim veri setinin yalnızca bir kısmıyla eğitebildiğini, dolayısıyla diğer sonuçları göz ardı ettiğini ve bunun da modelin çökmesine yol açabileceğini gösteriyor. Shumailov, daha önce filtrelenmişse yapay zeka modellerini sentetik verilerle eğitmenin imkansız olmadığını garanti ediyor.