Liliana Acosta: “Yapay zekayla ilgili sorunlarımızın çoğu insan kararlarından kaynaklanıyor”

achievable

New member
Liliana Acosta O, etik konusunda uzmanlaşmış bir filozoftur. teknoloji. 2017 yılında danışmanlık veren Thinker Soul'u kurdu. sayısallaştırma şirketlerin ve yenilik. Son yıllarda yansıtma ve yaymaya odaklandı. yapay zeka (AI), bilişsel etkileri sosyal ağlar ya da düşünce akımları gibi Transhümanizm.



Bu Cuma, Acosta, akademik ve iş dünyası arasında tartışma ve fikir alışverişi için bir forum olan Cornellà Creació'nun yeni sayısında yer alıyor. Danışman, El Periódico'nun ekonomi müdürü Agustí Sala ile bu ve diğer konular hakkında bir konuşma başlatacak.


Son yıllarda, Google Ve Microsoftiki dev Yapay zekanın gelişimine öncülük etmek, etik ekibinin çoğunu işten çıkardılar. Bu hareket neden endişe verici?


Bilim adamı Timnit Gebru, Google'da yapay zeka etik departmanı oluşturmak için işe alınan ilk kadındı. O ve ekibi dil modellerini analiz etti ve birçok sorun buldu. Ancak kimse dinlemedi veya yanıt vermedi, bu yüzden bir mesaj yayınladılar. kağıt bu sistemlerin bir şeyleri tekrarlayan papağanlar gibi çalıştığını açıkladılar. Daha sonra kapatılan bir departmandan bu nedenle kovuldu.



Şirketlere danışmanlık yaparken işim mühendislerle her gün kavga etmek. Çünkü onların etik anlayışları, üretmeye meraklı olduklarından çok farklı. Mikro düzeyde bana ne oluyorsa, makro düzeyde de tüm bu şirketlerde oluyor. Bir teknolojinin iyi olup olmadığını görmek için kullanmak için sabırsızlanıyoruz, onu tasarımı itibariyle iyi olacak şekilde tasarlamalıyız ve bu çok pahalıdır. Bu yüzden birçok etik departmanının kadrosu kesildi. Bu bir zaman ve maliyet verimliliği sorunudur.


Bir teknolojinin iyi olup olmadığını görmek için onu kullanmak için sabırsızlanıyoruz. Tasarım gereği öyle düşünülmesi gerekiyor ama bu çok pahalı.

Teknolojinin tarafsız olduğu ve yalnızca kullanıcıların onu nasıl kullandığına bağlı olduğu söyleniyor. Bu fikir neden doğru değil?


Böyle düşünmeyi bırakmalıyız. Teknoloji tarafsız olamaz, özellikle de insanların verilerine dayanarak çalıştığında. Bir yapay zekanın önyargıları varsa, bu onun hatası değildir; bunlar, makineye çevirdiğimiz insan önyargılarıdır.


Ancak bu şirketler ChatGPT gibi uygulamaları hangi verilerle eğittiklerini açıklamıyor. Opaklığı önyargının tespit edilmesini zorlaştırır.



Bir yapay zeka modelini eğitmek büyük miktarda veri gerektirir ve bunları internetten almak özel bir veritabanı oluşturmaktan çok daha ucuzdur. Sorun, ağdan çıkarılan verilerin çoğunun zaten özünde önyargılı olmasıdır. Örneğin OpenAI 180 milyar parametreyle çalışıyor. Bu, bir sorunu tespit etmeyi çok zorlaştırır. Sam Altman bile ChatGPT'nin nasıl çalıştığını anlamadığını söyledi. Bu nedenle etik ekipleri böyle bir şeyi denemeden pazarlayamayacağınız konusunda uyarıyor.


Giderek daha fazla insan korkudan dolayı makineler hakkında düşünüyor. İşimizi çalacakları ya da insanlığa isyan edecekleri korkusunu yaşatıyorlar. Büyük şirketlerin ekmeğine mi oynuyoruz?


Yapay zekayı insanlığa boyun eğdiren robotlar olarak düşünüyoruz ama bu fikir bilim kurguya, siberpunka ait. Günümüzün yapay zekası bundan çok uzak. En kötüsü, algoritmalarla ilgili sorunlarımızın çoğunun insan kararlarından kaynaklanıyor olmasıdır. Bu önyargıları yaratan biz insanlarken, yapay zekadan korkmamız komik. Etik, yapay zekadan önce insanlara uygulanmalı.


Yapay zekanın önyargılarını yaratan biz insanlarken, yapay zekadan korkmamız çok komik

Şirketler yapay zeka ürünlerini insan konuşmalarını taklit edecek veya kadın sesine sahip olacak şekilde tasarlıyor. Bu insan simülasyonu çok fazla hayranlık uyandırıyor ama bu teknolojiye dair algımızı bozuyor mu?


İnsanlar bilince sahip oldukları için, onları korkuttuğu ve ona hükmetmenin bir yolu olduğu için etrafındakileri antropomorfize ettiler. Aynı şey robotlarda da oldu. 1960'lı yıllarda MIT, kullanıcılarla telefonla iletişim kurabilen bir sistem olan Eliza projesini yarattı. İnsanlar buna bağlandı ve projeyi kapattılar.


Teknolojiye insan görünümü vermek bize huzur veriyor ama dikkatli olmalıyız çünkü gerçeklik duygumuzu kaybedebiliriz. Eleştirel düşünmeyi uygulamalıyız. Bir robotun benimle konuşması onun insana benzer bir şey olabileceği anlamına gelmez. Bu nedenle etik gereği yapay zeka ile oluşturulan içeriğin tanımlanmasını istiyoruz.


Şirketler bu duruma nasıl uyum sağlıyor? Yapay Zeka YasasıYapay zekayı düzenleyecek Avrupa yasası mı?


Yasanın herhangi bir aksama yaratacağını düşünmüyorum. Şirketler bunu, veri koruma kanununda olduğu gibi, başka bir yükümlülük olarak görüyor. İspanyol şirketlerinin %30'undan azı işlerinin merkezinde yapay zeka sistemlerini uyguluyor ve bunlar normalde halihazırda uyum sağlamaları gereken bir hukuk departmanına sahip olan büyük şirketler. Yıkıcılığa yol açan startupların ve küçük işletmelerin inovasyonunu durdurabilecek olması beni biraz korkutuyor. Yine de etik açıdan bakıldığında bize yardımcı olabilir, yapay zeka teknolojilerinin risklerini vurgulayan harika çalışmalar yapıldı.