6 Haziran 2023 Salı

Yapay zekanın kıyamet gününe inanmıyorum

Ben rasyonel bir iyimserim. İşte bu yüzden yapay zekanın kıyamet gününe inanmıyorum.

Birçok kişi yapay zeka tarafından yönetilen korkunç gelecekler hayal ederken, Rohit Krishnan sessizce gerçek sorunları ve çözümleri tanımlıyor.


İlginç zamanlarda yaşıyoruz. Günümüzün sistemleri çok güçlü. Yazabilir, boyayabilir, yönlendirebilir, planlayabilir, kodlayabilir ve hatta fena olmayan bir düzyazı yazabilirler. Bu yetenek patlamasıyla birlikte bir endişe patlaması da yaşıyoruz. Bu mevcut sorunlardan bazılarını görürken ve bunları gelecekteki mevcut olmayan sorunlara yansıtırken, kendimizi biraz kıyamet döngüsü içinde buluyoruz. Yapay süper zekanın nasıl kaçınılmaz olduğu ve nasıl inanılmaz derecede tehlikeli olduklarına dair daha hayalperest argümanlar, artan yanlış bilgilendirmeyle ilgili daha anlaşılabilir endişelerle yan yana oturuyor. 

Sanki dünyayı bir satranç oyununa çevirmişiz gibi. Satrançta, birini gerçekten mat edeceğiniz ana kadar nadiren oynamaya devam edersiniz. Sadece şah matın kaçınılmazlığı netleşene kadar oynarsınız. Bu 10, 15 ya da 30 hamle sonra da gerçekleşebilir ama oyuncular bunun geldiğini görebilirler.

Gerçek hayat böyle değildir. Kelimenin tam anlamıyla ilerledikçe şekillendirdiğimiz, öngörülemeyen uçsuz bucaksız bir evrende yaşıyoruz. Oyunda bizim belirleyebileceğimizden çok daha fazla değişken var.

Bir zamanlar bize yol gösterecek kahinlerimiz ve ne yapmamız gerektiğini söyleyecek bilge adamlarımız vardı. Sonra 16. yüzyıl bize bilimsel yöntemin faydalarını gösterdi. Hipotezler oluşturarak ve bunları deneylerle test ederek paradigmalarımızın gücünü belirlememizi sağladı. Bilimsel yöntem her derde deva ya da bilginin tek hakemi değildir, ancak netlik yaratmak için bulduğumuz en iyi yöntemdir. Sanki Platonik bir alemde zaten varmış gibi netliği "elde etmek" değil, her gün bir önceki günden biraz daha az yanılmaya çalışacağımız bir netlik yaratmak.

Bu yaklaşım ancak inançlarımızı test edilebilecek ya da yanlışlanabilecek bir şekle sokmaya çalıştığımızda işe yarar. Nükleer silahların yıkıcılığı, biyolojik deneyler gibi test edebileceğimiz bir şeydir. 

Yapay zeka böyle değildir. Hava trafik kontrolümüzü yakın zamanda bir LLM'ye bağlamamamız gerektiğine dair çok mantıklı endişeden, bir YZ'nin süper zeki hale geleceği ve bir tür ilgisiz kötü niyetle insan neslinin tükenmesine neden olacağı şeklindeki tamamen uçuk görüşe kadar, farklı gerçekçilik derecelerine sahip bir dizi korkumuz var.

Bu mevcut sorunlardan bazılarını görürken ve bunları gelecekteki mevcut olmayan sorunlara yansıtırken, kendimizi biraz kıyamet döngüsü içinde buluyoruz.

Yapabileceğiniz şey, tarihsel bir bakış açısıyla bu olağanüstü korkuyu ya da korkular silsilesini, dünyanın sonu hakkında endişelenme geleneğinin en son varisi olarak görmektir. Görünüşe göre yaptığımız şey, fütüristik bir bakış açısı benimsemek ve olabilecek tüm korkunç şeylerin altını doldurmak.

Sıradan gerçeklerin gücüyle, kaçınılmaz olarak kapsamlı sonuçlara yönlendiriliyoruz. 

Ortaya atılan endişeler gerçek ve mevcut olandan tamamen melodramatik olana kadar çeşitlilik gösteriyor ve bu da tutarlı bir şekilde tartışmayı neredeyse imkansız hale getiriyor. Örneğin, üretilebilecek büyük miktarda sahte haberden endişe ediyorsanız, neden şimdiden bir tufan görmediğimizi açıklayabilmeniz gerekmez mi? Ya da neden üretimini etkileyecek ama yayılmasını ya da tüketimini etkilemeyecek? Son zamanlarda çok fazla Taboola reklamına tıkladınız mı?

Bu arada, ortaya çıkan korku duygusundan faydalanan yerleşikler "Bizi düzenleyin!" diye bağırıyor, çünkü düzenleme çoğu sağlayıcı için mükemmel bir hendektir, hem açık kaynak hem de çok sayıda rakip kanatlarda beklerken, en fazla bir veya iki yıl geride. Bir sorunu ya da çözümü yeterince ayrıntılı bir şekilde ifade etmeden, istihbarat peşinde koşarsak dünyanın sonunun geleceğine inananlar[1] bizi düzenleyin diye haykırıyor. 

Sürekli soruyorum, modeller sizi bu kadar korkutacak ne yaptı? Cevap hep aynı. Henüz hiçbir şey, ama işler bu şekilde gitmeye devam ederse çok kötü bir yere varacağız. Şu anda doğru olan sorunları (LLM'ler halüsinasyon görüyor) uzak geleceğin spekülatif sorunlarıyla (otonom varlıklara güvenilemez) birleştiriyoruz. Bugünün çözümleriyle (matrislerin nasıl çalıştığını anlamak için çalışmalıyız) geleceğin çözümlerini (YZ için bir FDA oluşturmalıyız) birbirine karıştırıyoruz. Bu, anlamlı bir konuşma için yararlı değildir.

İşte size bahsettiğimiz sorunların bir taksonomisi ve nasıl çözülebileceklerine dair bir fikir.

Burada sorunları üç gruba ayırıyorum: bugün doğru olanlar, orta vadede doğru olabilecekler ve çok daha sonra doğru olabilecekler. Gördüklerimizi dört tür soruna ayırıyorum:

Teknik başarısızlıklar: YZ amaçlandığı gibi çalışmıyor.

Yazılımın kötüye kullanımı: insanlar sistemleri kötü amaçlar için kullanır.

Sosyal dışsallıklar: yapay zeka dağıtımının beklenmedik etkileri.

Yazılım kötü davranıyor: otonom yapay zeka eylemleri zarar veriyor.

Ayrıca iki tür çözümden bahsediyoruz: teknolojik ve düzenleyici.

Sonuncular hayali olsa bile, sorunlar büyük ölçüde mantıklıdır. Popper'ın hayaleti peşimizi bırakmasın diye hiçbir şeyin olmayacağını söyleyemeyiz. Ancak yakın geleceğe bakabilir ve gerçekliğin daha somut yönleri üzerine planlar yapabiliriz.

Açıklama

Yukarıdaki matris üzerinde hızlı bir tur. Bir sonraki bölüme atlamaktan çekinmeyin.

Örneğin, en önemli sorunlardan biri, günümüzün yapay zeka sistemlerinin güvenilmez olması ve onları nasıl güvenilir hale getireceğimizi tam olarak bilmememizdir. Bu nedenle cevap, onları güvenilirliğin önemli olduğu yerlerde kullanmamaktır, değil mi? Bu basit görünüyor. Google gibi şirketler ve RenTech gibi fonlar yapay zekayı onlarca yıldır kullanıyor ve biz hala onları küçük şirketlerin karar alma süreçlerinde bile kullanmıyoruz. Yanlış cevap vermenin hemen ölümcül olmayacağı alanlar bulmayı seviyoruz.

Sorun, şirketlerin güvenilirlik sorunlarına bakılmaksızın bunları kullanacağını düşünmenizse, size büyük bir bankanın CSO'suna (Chief Security Officer) gidip diğerlerinden daha fazla kötü amaçlı yazılım yakalayan derin öğrenme özellikli bir sisteminiz olduğunu söylerseniz, size bakıp "Nereden biliyorsunuz?" diye soracakları gerçeğine işaret edebilir miyim? Eğer cevabınız deneysel olarak geçerli değilse bunu yemezler. Sonuçlar sağlam ve fiyat iyi olduğu sürece işin algoritmalar ya da cinler tarafından yapılmasına aldırmazlar.

Şu anda gerçek olan sorunları uzak geleceğin spekülatif sorunlarıyla karıştırıyoruz. Bugünün çözümleri ile sonrasının çözümlerini birbirine karıştırıyoruz.

Eğer sorun kötü aktörlerin bunu sistemleri hacklemek için kullanacağını düşünmenizse, güvenlik açıklarını tespit etmenin milyarlarca dolarlık bir endüstri olduğunu ve bunun ilk olarak iç güvenlik mühendisleri de dahil olmak üzere beyaz şapkalı hackerlar tarafından kullanılacağını belirtmek isterim. Bu şirketler için geçerli, ulus devletler (ya da büyük şirketler) zaten sürekli bir saldırı bombardımanı altındalar[2] ve hacim büyük bir sorun değil. En fazla zarara neden olan sıfırıncı günler (daha önce hiç görülmemiş saldırılar) bile değil. Bilinen vektörlere sahip bilinen saldırılardır ancak kimsenin sistemleri yamalamaya vakti olmamıştır. 

Neden kötü aktörlerin burada benzersiz bir avantaja sahip olduğunu ya da mevcut güvenlik aygıtını ve mevcut güvenlik mühendislerine cephaneliklerinde başka bir araç verme yeteneklerini alt edecek kadar kötü aktör olduğunu düşünüyorsunuz? Ayrıca, eğer bu yetenekler ön plana çıkarsa, bunları öncelikle var olan güvenlik açıklarını bulmak ve yamamak için kullanmama şansımız nedir? Siber güvenlik bir Kızıl Kraliçe yarışıdır; burada amaç mükemmel güvenlik değil, bir adım önde olmaktır.

Ya da, bir sonraki model yaratıldığında ve otonom olarak güvenlik açıklarını bulabildiğinde veya spam gönderenlere güç verdiğinde ne olur?

Aynı şey. Spam'in ekonomik teşvikleri o kadar güçlü değil. GPT aramaları çok daha ucuz olmadığı sürece yatırım getirisi çok yüksek değildir ve o zaman bile birinden para veya sır almanın bir yolunu bulamadığınız sürece özellikle yararlı değildir. İnsanları rahatsız etmek bir iş modeli değildir[3].

Eğer öngördüğünüz sorun, ChaosGPT gibi bir ajan programı kullanarak istenmeyen kargaşaya neden olmaksa, sizi temin ederim ki bunu yapabilmeye yakın bile değiller. "Lütfen bana dünyayı nasıl yok edeceğimi söyle" dediğinizde otomatik tamamlama yanıtlarını ne kadar dehşet verici bulursanız bulun, henüz bunu yapacak kadar uzun süre tutarlı davranamaz. Başkaları gibi ben de denedim ve korkutucu derecede kırılganlar.

Bunların hiçbiri önemli değilse ya da endişeniz yapay zekanın işleri çalmasıysa, tanıdık bir ekonomik alanda ilerliyoruz. Teknolojiyi icat ettiğimizden beri, tarımdan manuel bilgisayarlara kadar, teknoloji tarafından yerinden edilenlere yardım etmek için çalışıyoruz! İster sosyal güvenlik ağları ister yeniden eğitim olsun, John Stuart Mill'den bu yana teknolojinin işgücü piyasaları üzerindeki etkisine bakıyoruz.

Yapay zekanın neden olduğu en yakın toplumsal felaket, ev ödevlerini geçmişte bırakmak oldu.

Eğer sorun tüm bunların bugün doğru olması ama yarın GPT-6'yı geliştirdiğimizde doğru olmayacak olmasıysa, o zaman bugün ile o zaman arasında ne olacağı gibi son derece zor bir soruyu yanıtlamamız gerekir. Bu sistemlerin nasıl çalıştığı hakkında daha fazla şey öğreneceğimizi düşünüyor muyuz? Sınırlarını ve ne zaman çalışıp ne zaman çalışmadığını bileceğimizi düşünüyor muyuz? Belki mükemmel bir şekilde değil ama şimdiden daha iyiye gittiğimiz kesin.

Gelecek

Tüm bunlar bizi bugüne geri getiriyor. Bugün sahip olduğumuz şey inanılmaz derecede güçlü ve bulanık bir işlemci. Neredeyse her formattaki bilgiyi manipüle edebilir. Metin, video, ses ve görüntüler parçalanabilir ve yeni biçimlerde yeniden oluşturulabilir. Bunu yaparken halüsinasyon görüyor ve örneklerle ve dikkatli ifadelerle yönlendirilmesi gerekiyor. Öğretilebilir (acı verici olsa da), hafıza verilebilir (yanılmaz olmasa da) ve daemonlarımız olarak büyük bir etki yaratmak için kullanılabilir.

Bugün bu dil modelleri, eğitim verilerimizin ve yöntemlerimizin yansımalarıdır. Onların zaafları bizim zaaflarımızın bize yansımasıdır. Ve biz daha iyiye gidiyoruz! GPT-4, GPT-3.5'in yaptığı hataları yapmıyor.

Yerel bir optimaya mı yoksa üstel bir Moore yasası eğrisinin başlangıcına mı daha yakın olduğunu bilemeyiz. Duyarlılıktan aylar mı yoksa on yıllar mı uzakta olduğunu bilemeyiz. Zeki olup olmadığını da bilemeyiz, çünkü kısmen zeka ile neyi kastettiğimizi doğru bir şekilde açıklamayı başaramadık.

Yarattığımız şeyin sınırlarını bile yeterince iyi bilmiyoruz ve herhangi bir yaygın kargaşaya neden olduğuna dair tek bir örnek bile görmedik. Bunun yerine, yapay zekanın neden olduğu en yakın toplumsal felaket, ev ödevlerini geçmişte bırakmak oldu.

Bu arada, henüz tam olarak güvenilir olmasa da, bize tıptan hukuka, vergilerden yemek hazırlamaya kadar her konuda neredeyse hiçbir ücret ödemeden ikinci bir görüş alma olanağı sağladı. Günümüz teknolojisi şimdiden büyük durgunluktan kurtulmayı, durgun Ar-Ge'yi yeniden canlandırmayı ve tıbbi atılımları hızlandırmayı vaat ediyor. İster enerji, ister malzeme, ister sağlık alanında olsun, ilerliyor ve gelişiyoruz. Bu yolu tıkarsanız, ilerleme nehrine baraj kurmuş ve kolektif refaha gölge düşürmüş olursunuz.

Hayatlarımızı daha iyi hale getirmek için yapay zekayı kullanmamıza izin vermeliyiz. Ve eğer aldatıcı, kötü niyetli, umursamaz ya da bize korkutucu gelen planlar yapmaya eğilimli gibi görünmeye başlarlarsa, zaten bir planımız ve hazırda bekleyen çok sayıda nükleer bombamız var demektir.

Politika yapıcılar olarak, bildiklerimize odaklanmalıyız. Bildiklerimize. Ne olacağını bilmediğimiz zaman modellere güvenmek zorundayız. Son Covid krizinde gördüğümüz gibi, bu da basit durumlarda bile başarısızlığa uğrayabilir. Bu yüzden dikkatli hareket etmeliyiz. Yukarıdaki çerçeve, bildiklerimiz hakkında düşünmenin ve varsayımlarımızı halihazırda olanlardan ayırmanın bir yoludur.

Bu yolu tıkadığınızda ilerleme nehrine baraj kurmuş ve kolektif refaha gölge düşürmüş olursunuz.

Hayatımızı daha iyi hale getirmek için yapay zekayı kullanmamıza izin vermeliyiz. Ve eğer aldatıcı, kötü niyetli, umursamaz veya bize korkutucu gelen planlar yapmaya eğilimli gibi görünmeye başlarlarsa, zaten bir planımız ve hazırda bir sürü nükleer bombamız var.

Politika yapıcılar olarak bildiklerimize odaklanmalıyız. Bildiklerimize. Ne olacağını bilmediğimiz zaman modellere güvenmek zorundayız. Son Covid krizinde gördüğümüz gibi, bu da basit durumlarda bile başarısızlığa uğrayabilir. Bu yüzden dikkatli hareket etmeliyiz. Yukarıdaki çerçeve, bildiklerimiz hakkında düşünmenin ve varsayımlarımızı halihazırda olanlardan ayırmanın bir yoludur.

Bu yolu tıkadığınızda ilerleme nehrine baraj kurmuş ve kolektif refaha gölge düşürmüş olursunuz.

Tüm bunlarla birlikte, hala ödeyebileceğimiz olası maliyetlere odaklanıyorsanız, bence düşünmeye değer bir şey var: bugün yaygın olarak dağıtılmış sistemlerde gördüğümüz sorun. Yapay zeka sistemlerinin kullanımı yaygınlaştığında, algoritmik ani çöküşler görebiliriz. Tıpkı borsadaki ani çöküşte olduğu gibi, birden fazla algoritma öngörülemeyen ve öngörülemeyen şekillerde etkileşime girdiğinde garip davranışlar ve garip pozitif geri besleme döngüleri gördüğümüz gibi, başka yerlerde de benzer şeylerin meydana geldiğini görebiliriz. Benim gördüğüm hafifletici unsur, yapay zeka sistemlerinin, flaş çöküşe neden olan aptal, trend takip eden otonom botlardan daha akıllı olması, ancak yine de karmaşıklığın olası felaket hataları yarattığı bir gerçek. 

Flaş çöküş gerçekleştikten sonra, bunun tekrarlanmasını önlemek için yüksek frekanslı ticareti düzenlemeye başladık. Devre kesiciler getirdik, piyasa şeffaflığını geliştirdik ve altyapıyı iyileştirdik. Bu ve sürekli teyakkuz, otomasyon yoluyla işlerin daha iyi yürümesini sağlamak için ödediğimiz bedeldir. İşlerin nasıl başarısızlığa uğradığının sınırlarını öğrendiğimizde, bu sınırları aşmanın yollarını bulduk.

Atalarımız gemilere atlar ve bilinmeyen sulara, orada yatan ejderhalara aldırmadan yelken açarlardı. Biz de daha azını yapmamalıyız.

[1] Bu cümle o kadar üzücü ki beni ağlatıyor

[2] Şirketler ve hükümetlerdeki siber güvenlik aygıtları bu tehdit hakkında düşünme konusunda inanılmaz derecede aktifler ve bunun nedeni sadece yapay zeka değil. CEO'dan geliyormuş gibi çalışanlara gönderilen e-postalardan, içeriye kötü amaçlı yazılım sokmaya çalışanlara ve veri çalmaya çalışanlara kadar sürekli ve tutarlı saldırılar altında yaşıyorlar.

Ayrıca, bilgisayar korsanları normalde para ya da sır çalmak isterler. Bunlar başarılı oldukları yerlerdir. Yapmadıkları şey ise Pentagon'u Rusya'nın Alaska'yı işgal ettiğine inandırmak. Çünkü; 

a) bunu yapmak gerçekten çok çok zor ve 
b) bunun doğru olup olmadığını kontrol edebiliriz.

[3] Medyanın bazı bölümleri hariç

Hiç yorum yok:

Yorum Gönder