21 Aralık 2023 Perşembe

Yapay zeka diye bir şey yok(!)

Yeni teknolojiyi kontrol etmenin yolları var ama önce onu mitleştirmekten vazgeçmeliyiz.

Bir bilgisayar bilimcisi olarak "yapay zeka" terimini sevmiyorum. Aslında, yanıltıcı olduğunu düşünüyorum, hatta belki de biraz tehlikeli. Bu terimi zaten herkes kullanıyor ve bu konuda tartışmak için biraz geç kalmış gibi görünebiliriz. Ancak yeni bir teknolojik çağın başlangıcındayız ve bir teknolojiyi yanlış yönetmenin en kolay yolu onu yanlış anlamaktır.

"Yapay zeka" teriminin uzun bir geçmişi var; on dokuz ellili yıllarda, bilgisayarların ilk günlerinde ortaya atıldı. Daha yakın zamanlarda, bilgisayar bilimcileri "Terminatör" ve "Matrix" gibi filmlerle ve "Star Trek: The Next Generation "daki Komutan Data gibi karakterlerle büyüdüler. Bu kültürel mihenk taşları teknoloji kültüründe neredeyse dini bir mitoloji haline geldi. Bilgisayar bilimcilerinin yapay zeka yaratmayı ve uzun süredir devam eden bir hayali gerçekleştirmeyi arzulamaları son derece doğaldır.

Ancak çarpıcı olan, yapay zeka rüyasının peşinden koşan pek çok kişinin, bunun insanlık için kıyamet günü anlamına gelebileceğinden endişe duymasıdır. Bugünkü çabaların tam merkezinde yer alan bilim insanları tarafından bile yapay zeka araştırmacılarının yaptıklarının türümüzün yok olmasına ya da en azından insanlığa büyük zarar vermesine neden olabileceği yaygın bir şekilde ifade ediliyor. Yakın zamanda yapılan bir ankette, yapay zeka bilimcilerinin yarısı, insan ırkının yapay zeka tarafından yok edilme ihtimalinin en az yüzde on olduğu konusunda hemfikirdi. OpenAI'yi yöneten meslektaşım ve arkadaşım Sam Altman bile benzer yorumlar yaptı. Silikon Vadisi'ndeki herhangi bir kafeye girdiğinizde aynı tartışmanın yaşandığını duyabilirsiniz: Bir kişi yeni kodun sadece kod olduğunu ve insanların sorumlu olduğunu söylerken, bir diğeri bu görüşte olan herkesin yeni teknolojinin ne kadar derin olduğunu anlamadığını savunuyor. Tartışmalar tamamen rasyonel değil: En korkak bilim insanı arkadaşlarımdan bir yapay zeka kıyametinin nasıl gerçekleşebileceğini açıklamalarını istediğimde, genellikle sonsuzluğu kavramaya çalışan birini ele geçiren felçten kurtulamıyorlar. "Hızlanan ilerleme yanımızdan uçup gidecek ve biz neler olduğunu kavrayamayacağız" gibi şeyler söylüyorlar.

Ben bu konuşma tarzına katılmıyorum. Birçok arkadaşım ve meslektaşım GPT-4 gibi en son büyük modellerle yaşadıkları deneyimlerden çok etkilendiler ve daha derin bir zekanın ortaya çıkmasını beklemek için adeta nöbet tutuyorlar. Benim pozisyonum onların yanıldığı değil, emin olamayacağımız; yazılımı farklı şekillerde sınıflandırma seçeneğini elimizde tuttuğumuz yönünde.

En pragmatik pozisyon, yapay zekayı bir yaratık değil, bir araç olarak düşünmektir. Benim tutumum tehlike olasılığını ortadan kaldırmıyor: nasıl düşünürsek düşünelim, yeni teknolojimizi bize zarar verebilecek ve hatta yok olmamıza yol açabilecek şekilde kötü tasarlayabilir ve kullanabiliriz. Teknolojiyi mitleştirmek, onu iyi kullanamama olasılığımızı artırır ve bu tür bir düşünce hayal gücümüzü sınırlar, onları dünün hayallerine bağlar. Bunu ne kadar çabuk anlarsak, yeni teknolojimizi akıllıca yönetmeye o kadar çabuk başlarız.

Eğer yeni teknoloji gerçek bir yapay zeka değilse, o zaman nedir? Benim görüşüme göre, bugün inşa ettiğimiz şeyi anlamanın en doğru yolu, sosyal işbirliğinin yenilikçi bir biçimi olmasıdır.

OpenAI'nin GPT-4'ü gibi sırayla cümleler yazabilen bir program, Wikipedia'nın istatistikler kullanılarak bir araya getirilmiş çok daha fazla veri içeren bir versiyonu gibi bir şeydir. Siparişe göre resimler oluşturan programlar, çevrimiçi resim aramanın bir versiyonu gibidir, ancak resimleri birleştirmek için bir sisteme sahiptir. Her iki durumda da metni yazanlar ve görselleri hazırlayanlar insanlardır. Yeni programlar insan zihninin yaptığı işleri bir araya getiriyor. Yenilikçi olan şey, karma işleminin yönlendirilmiş ve kısıtlanmış hale gelmesi, böylece sonuçların kullanılabilir ve genellikle çarpıcı olmasıdır. Bu önemli bir başarıdır ve kutlanmaya değerdir - ancak yeni bir zihnin icadından ziyade, insan yaratımları arasında daha önce gizli kalmış uyumların aydınlatılması olarak düşünülebilir.

Anladığım kadarıyla, benim görüşüm teknolojinin gururunu okşuyor. Ne de olsa medeniyet sosyal işbirliğinden başka nedir ki? Yapay zekayı bağımsız, zeki varlıklar yaratmaya yönelik bir teknoloji olarak görmek yerine birlikte çalışmanın bir yolu olarak görmek onu daha az gizemli hale getirebilir - Hal 9000 ya da Komutan Data gibi. Ama bu iyi bir şey, çünkü gizem sadece kötü yönetimi daha olası hale getirir.

Yeni sistemlere zeka atfetmek kolay; genellikle bilgisayar teknolojisiyle ilişkilendirmediğimiz bir esnekliğe ve öngörülemezliğe sahipler. Ancak bu esneklik basit matematikten kaynaklanıyor. GPT-4 gibi büyük bir dil modeli, programın işlediği büyük miktarda metinde belirli kelimelerin nasıl çakıştığına dair kümülatif bir kayıt içerir. Bu devasa tablolama, sistemin birçok dilbilgisi kalıbına ve yazar tarzı olarak adlandırılabilecek yönlere içsel olarak yaklaşmasına neden olur. Belirli bir sırada belirli kelimelerden oluşan bir sorgu girdiğinizde, girişiniz modeldekilerle ilişkilendirilir; milyarlarca girişi ilişkilendirmenin karmaşıklığı nedeniyle sonuçlar her seferinde biraz farklı çıkabilir.

Bu sürecin tekrarlanmayan doğası onu canlı hissettirebilir. Ve yeni sistemleri daha insan merkezli hale getirebilecek bir anlamı var. Bir yapay zeka aracıyla yeni bir görüntü sentezlediğinizde, bir dizi benzer seçenekle karşılaşabilir ve aralarından seçim yapmanız gerekebilir; bir kompozisyon ödevinde kopya çekmek için L.L.M. kullanan bir öğrenciyseniz, model tarafından oluşturulan seçenekleri okuyabilir ve birini seçebilirsiniz. Tekrarı olmayan bir teknoloji biraz insan seçimi gerektirir.

Sevdiğim yapay zeka kullanımlarının çoğu, bilgisayarlar daha az katı hale geldiğinde elde ettiğimiz avantajlara dayanıyor. Bildiğimiz dijital şeyler, insanları değerlendirmek yerine ona uymaya zorlayan kırılgan bir niteliğe sahiptir. Hepimiz bir doktorun muayenehanesindeki zavallı bir ruhun ön büro ekranında beklenen şeyi yapmak için çabalamasını izlemenin ıstırabına katlanmışızdır. Yüzler buruşur; insanlığın altı oyulur. Dijital tasarımlara uyma ihtiyacı, insanın itaatkârlığına dair bir ortam beklentisi yaratmıştır. Yapay zekanın olumlu bir yanı da, eğer onu iyi kullanırsak, bu işkencenin sonunu getirebilecek olmasıdır. Artık renk körü olan biri için kendini anında yeniden formüle eden bir Web sitesi ya da birinin özel bilişsel yeteneklerine ve tarzlarına göre kendini uyarlayan bir site hayal edebiliriz. Benim gibi bir hümanist, insanların teknoloji tarafından aşırı derecede etkilenmek ya da yönlendirilmek yerine daha fazla kontrole sahip olmasını ister. Esneklik bize bir miktar yetki verebilir.

Yine de, bu olası avantajlara rağmen, yeni teknolojinin bizi sevmediğimiz ya da anlamadığımız şekillerde zorlayacağından endişe etmek son derece makul. Geçenlerde bazı arkadaşlarım en iddialı yapay zeka geliştirmelerinin durdurulmasını talep eden bir dilekçe dağıttı. Amaç, duraklama sırasında politika üzerinde çalışmamızdı. Dilekçe topluluğumuzdaki bazı kişiler tarafından imzalandı ancak diğerleri tarafından imzalanmadı. Bu fikri çok belirsiz buldum - hangi düzeyde bir ilerleme duraklamanın sona erebileceği anlamına gelecekti? Her hafta, yapay zeka politikalarını belirlemek üzere süreç başlatmak isteyen kuruluşlardan yeni ama her zaman muğlak görev tanımları alıyorum.

Bu çabalar iyi niyetli, ancak bana umutsuz görünüyorlar. Yıllarca Avrupa Birliği'nin mahremiyet politikaları üzerinde çalıştım ve mahremiyetin ne olduğunu bilmediğimizi fark ettim. Her gün kullandığımız bir terim ve bağlam içinde bir anlam ifade edebiliyor ama genelleme yapacak kadar iyi tanımlayamıyoruz. Mahremiyetin tanımına en çok yaklaştığımız şey muhtemelen "yalnız bırakılma hakkı", ancak bu da sürekli olarak dijital hizmetlere bağımlı olduğumuz bir çağda tuhaf görünüyor. Yapay zeka bağlamında, "hesaplama tarafından manipüle edilmeme hakkı" neredeyse doğru görünüyor, ancak istediğimiz her şeyi tam olarak söylemiyor.

Yapay zeka politikalarına ilişkin konuşmalarda "uyum" (yapay zekanın "istedikleri" insanların istedikleriyle uyumlu mu?), "güvenlik" (kötü bir yapay zekayı engelleyecek korkulukları öngörebilir miyiz?) ve "adalet" (bir programın belirli insanlara kötü davranmasını engelleyebilir miyiz?) gibi terimler hakimdir. Topluluk bu fikirlerin peşinden giderek kesinlikle çok iyi şeyler başardı, ancak bu korkularımızı bastırmadı. Sonunda insanları, oluşturduğumuz muğlak korumaları aşmaya çalışmaları için motive ediyoruz. Korumalar yardımcı olsa bile, her şey sinsi bir cini alt etmeye çalışmak gibi bir oyuna dönüşüyor. Sonuç olarak yapay zeka araştırma topluluğu, bir yandan yarattıklarının yakında tüm insanlığı öldürebileceği uyarısında bulunurken, diğer yandan da giderek daha acil, ancak sıkıcı müzakere süreçleri öneriyor.

Kısa bir süre önce, meslektaşlarımı arayarak ve onlara hepimizin hemfikir olduğu belirli bir şey olup olmadığını sorarak gayri resmi bir deney yaptım. Bir anlaşma temeli olduğunu gördüm. Hepimiz deepfake'lerin (sahte ama gerçek gibi görünen resimler, videolar vb.) onları yaratan programlar tarafından bu şekilde etiketlenmesi gerektiği konusunda hemfikir görünüyoruz. Yapay insanlardan gelen iletişimler ve bir insanın düşüncelerini ya da eylemlerini manipüle etmek üzere tasarlanmış otomatik etkileşimler de etiketlenmelidir. Ayrıca bu etiketlerin alınabilecek önlemlerle birlikte gelmesi gerektiği konusunda da hemfikiriz. İnsanlar ne gördüklerini anlayabilmeli ve karşılığında makul seçeneklere sahip olmalıdır.

Tüm bunlar nasıl yapılabilir? Mevcut yapay zeka araçlarımızın kara kutu niteliğinin sona ermesi gerektiği konusunda da neredeyse görüş birliği var. Sistemler daha şeffaf hale getirilmelidir. İçlerinde neler olup bittiğini ve nedenlerini daha iyi anlatmamız gerekiyor. Bu kolay olmayacaktır. Sorun şu ki, bahsettiğimiz büyük model yapay zeka sistemleri açık fikirlerden oluşmuyor. Sistemin "ne istediğine" dair kesin bir temsil yok, bir insanı manipüle etmek gibi belirli bir şeyi ne zaman yaptığına dair bir etiket yok. Sadece devasa bir jöle okyanusu var - uçsuz bucaksız bir matematiksel karışım. Bir yazar hakları grubu, GPT gibi araçlar senaryo yazım sürecinde kullanıldığında gerçek insan yazarlara tam ödeme yapılmasını önerdi; sonuçta sistem gerçek insanların yazdığı senaryolardan yararlanıyor. Ancak film klipleri ve potansiyel olarak tüm filmleri üretmek için yapay zekayı kullandığımızda, mutlaka bir senaryo yazım aşaması olmayacaktır. Senaryosu, film müziği vb. varmış gibi görünen bir film üretilebilir, ancak bu film bir bütün olarak hesaplanmış olacaktır. Bir sistemin senaryo, eskiz ya da niyet gibi gereksiz öğeleri ortaya çıkarmasını sağlayarak kara kutuyu açmaya çalışmak, ilkini yorumlamak için başka bir kara kutu inşa etmeyi gerektirecektir - sonsuz bir gerileme.

Geliştirilmesine katkıda bulunduğum bu kavram genellikle "veri saygınlığı" olarak adlandırılır. Büyük model "Yapay Zeka" yükselişinden çok önce, insanların internet aramaları veya sosyal ağlar gibi ücretsiz hizmetler karşılığında verilerini ücretsiz olarak verdikleri tanıdık düzenlemeye bir alternatif olarak ortaya çıktı. Veri saygınlığı bazen "emek olarak veri" ya da "çoğulculuk araştırması" olarak da bilinir. Bu tanıdık düzenlemenin karanlık bir tarafı olduğu ortaya çıktı: "ağ etkileri" nedeniyle birkaç platform kontrolü ele geçirerek yerel gazeteler gibi daha küçük oyuncuları ortadan kaldırıyor. Daha da kötüsü, çevrimiçi deneyimin ücretsiz olması gerektiğinden, geriye kalan tek iş nüfuz ticareti. Kullanıcılar komüniteryen bir cennet gibi görünen bir deneyim yaşarken, insanları kibirli, sinirli ve paranoyak yapan gizli ve bağımlılık yaratan algoritmalar tarafından hedef alınıyorlar.

Veri haysiyetinin olduğu bir dünyada, dijital şeyler tipik olarak onu yaptıkları için tanınmak isteyen insanlarla bağlantılı olacaktır. Bu fikrin bazı versiyonlarında, insanlar büyük modeller aracılığıyla filtrelenip yeniden birleştirilse bile yarattıkları şeyler için ücret alabilir ve teknoloji merkezleri insanların yapmak istedikleri şeyleri kolaylaştırdıkları için ücret kazanabilir. Bazı insanlar çevrimiçi kapitalizm fikrinden dehşete düşüyor, ancak bu daha dürüst bir kapitalizm olacaktır. Bilinen "ücretsiz" düzenleme bir felaket olmuştur.

Teknoloji camiasının yapay zekanın varoluşsal bir tehdit olabileceğinden endişe etmesinin nedenlerinden biri, tıpkı önceki dijital teknolojiler dalgasında olduğu gibi insanlarla oynamak için kullanılabilecek olması. Bu yeni sistemlerin gücü ve potansiyel erişimi göz önüne alındığında, olası bir sonuç olarak yok olmaktan korkmak mantıksız değil. Bu tehlike yaygın olarak kabul edildiğinden, büyük model yapay zekanın gelişi, teknoloji endüstrisini daha iyi hale getirmek için bir fırsat olabilir.

Veri saygınlığının hayata geçirilmesi teknik araştırma ve politika inovasyonu gerektirecektir. Bu anlamda konu bir bilim insanı olarak beni heyecanlandırıyor. Kara kutuyu açmak sadece modelleri daha ilginç hale getirecektir. Ve gerçekten etkileyici bir insan icadı olan ve bunca yüz binlerce yıldan sonra hala keşfetmekte olduğumuz dil hakkında daha fazla şey anlamamıza yardımcı olabilir.

Veri saygınlığı yapay zeka hakkında sıklıkla dile getirilen ekonomik endişeleri giderebilir mi? Temel endişe, çalışanların değerinin düşeceği ya da yerlerinden edileceği yönünde. Teknoloji uzmanları bazen, önümüzdeki yıllarda yapay zeka ile çalışan insanların daha üretken olacağını ve daha üretken bir ekonomide yeni iş türleri bulacaklarını söylüyorlar. (Örneğin bir işçi yapay zeka programları için hızlı mühendis olabilir - bir yapay zeka ile işbirliği yapan ya da onu kontrol eden biri) Ancak aynı kişiler özel hayatlarında sık sık "Hayır, yapay zeka bu işbirliği fikrinin önüne geçecek" diyeceklerdir. Günümüzün muhasebecileri, radyologları, kamyon şoförleri, yazarları, film yönetmenleri ya da müzisyenleri için artık ücret yok.

Veri saygınlığı yaklaşımı, büyük bir model değerli bir çıktı sağladığında en eşsiz ve etkili katkıda bulunanların izini sürecektir. Örneğin, bir modelden "maceraya atılan konuşan kedilerin yağlı boya dünyasında çocuklarımın animasyon filmini yapmasını" isterseniz, o zaman bazı önemli yağlı boya ressamlarının, kedi portre sanatçılarının, seslendirme sanatçılarının ve yazarların -ya da onların miraslarının- yeni başyapıtın yaratılmasında benzersiz bir öneme sahip olduğu hesaplanabilir. Bu kişiler takdir edilecek ve motive edileceklerdir. Hatta kendilerine ödeme bile yapılabilir.

Yeni yeni oluşmaya başlayan bir veri saygınlığı araştırma topluluğu var ve işte bu topluluk içindeki bir tartışma örneği: Veri saygınlığı ne kadar ayrıntılı bir muhasebe girişiminde bulunmalıdır? Herkes aynı fikirde değil. Sistem, büyük modellere ortam katkısı yapan milyarlarca insanı -örneğin bir modelin simüle edilmiş dilbilgisi yetkinliğine katkıda bulunanları- hesaba katmak zorunda değildir. Başlangıçta, veri saygınlığı yalnızca belirli bir durumda ortaya çıkan az sayıda özel katkı sağlayıcıyla ilgilenebilir. Ancak zaman içinde, ara hak örgütleri (sendikalar, loncalar, meslek grupları vb.) rol oynamaya başladıkça daha fazla kişi dahil edilebilir. Veri onuru topluluğundaki insanlar bazen bu beklenen grupları bireysel veri aracıları (mids) veya veri tröstleri olarak adlandırırlar. İnsanların çevrimiçi bir dünyada, özellikle de dev bir yapay zeka modelinde kaybolabilecekleri durumlarda, bir değere sahip olmak için kolektif pazarlık gücüne ihtiyaçları vardır. Ve insanlar bir grup içinde sorumluluğu paylaştıklarında, kendi kendilerine polislik yaparak hükümetlerin ve şirketlerin yukarıdan sansürleme veya kontrol etme ihtiyacını veya cazibesini azaltırlar. Büyük modellerin insani özünü kabul etmek, yeni pozitif sosyal kurumların filizlenmesine yol açabilir.

Veri saygınlığı sadece beyaz yakalı roller için değildir. Yapay zeka güdümlü ağaç kesme robotları kullanılmaya başlanırsa neler olabileceğini bir düşünün. İnsan ağaç kesiciler kendilerini değersizleşmiş ve hatta işsiz bulabilirler. Ancak robotlar eninde sonunda yeni bir tür dolaylı peyzaj sanatına olanak sağlayabilir. Bazı eski işçiler ya da başkaları, ağaç budama modellerinde kendilerine yer bulacak yaratıcı yaklaşımlar -örneğin farklı açılardan farklı görünen holografik budama sanatı- yaratabilir. Veri saygınlığı ile modeller, kolektif organizasyonlar aracılığıyla dağıtılan yeni gelir kaynakları yaratabilir. Ağaç kesimi zaman içinde daha çok işlevli ve ilginç hale gelecektir; değerli kalmak için motive olmuş bir topluluk olacaktır. Bir yapay zeka ya da robotik uygulamanın her yeni başarılı tanıtımı, yeni bir tür yaratıcı çalışmanın başlangıcını içerebilir. Bu, irili ufaklı yollarla, modellerin entegre edildiği bir ekonomiye geçişi kolaylaştırmaya yardımcı olabilir.

Silikon Vadisi'ndeki pek çok kişi evrensel temel geliri(U.B.I.) yapay zekanın yaratacağı potansiyel ekonomik sorunlara bir çözüm olarak görüyor. Ancak U.B.I. kara kutu yapay zeka fikrini korumak için herkesi yardıma muhtaç hale getirmek anlamına geliyor. Bence bu korkutucu bir fikir, çünkü kötü aktörler her komünist deneyde olduğu gibi evrensel bir refah sisteminde de güç merkezlerini ele geçirmek isteyecektir. Veri saygınlığının tüm toplumu ayakta tutacak kadar büyüyebileceğinden şüpheliyim, ancak herhangi bir sosyal veya ekonomik ilkenin hiçbir zaman tam olacağından da şüpheliyim. Mümkün olan her durumda amaç, yeni bir bağımlı sınıf yerine en azından yeni bir yaratıcı sınıf oluşturmak olmalıdır.

Yapay zeka şirketlerinin veri saygınlığını benimsemeleri için özgeci olmayan nedenler de var. Modeller ancak girdileri kadar iyidir. Ancak veri saygınlığı gibi bir sistem sayesinde modelleri yeni sınırlara doğru genişletebiliriz. Şu anda bir L.L.M.'ye bir makale yazdırmak, programdan etkileşimli bir sanal gerçeklik dünyası yaratmasını istemekten çok daha kolay, çünkü var olan çok az sanal dünya var. Neden bu sorunu daha fazla sanal dünya ekleyen insanlara prestij ve gelir şansı vererek çözmeyelim?

Mühendislik ürünü olan her şey -arabalar, köprüler, binalar- insanlara zarar verebilir ve yine de mühendislik üzerine bir medeniyet inşa ettik. İnsanların farkındalığını, sorumluluğunu ve katılımını arttırarak ve genişleterek otomasyonu güvenli hale getirebiliriz; tersine, icatlarımıza gizli nesneler gibi davranırsak, iyi mühendisler olamayız. Yapay zekayı bir sosyal işbirliği biçimi olarak görmek daha uygulanabilirdir: bize insanlardan oluşan makine dairesine erişim sağlar.

Yapay zekanın toplumumuzu raydan çıkardığı kıyamet senaryosunu düşünelim. Bunun gerçekleşmesinin bir yolu derin sahtekarlıklardır. Varsayalım ki, belki de savaş halindeki karşıt bir hükümette çalışan kötü bir kişi, hepimize sevdiklerimizin işkence gördüğüne ya da evlerimizden kaçırıldığına dair ikna edici videolar göndererek kitlesel paniği körüklemeye karar verdi. (Bu tür videoları oluşturmak için gerekli verileri sosyal medya ya da diğer kanallar aracılığıyla elde etmek pek çok durumda kolaydır). Videoların sahte olduğu kısa sürede anlaşılsa bile kaos ortaya çıkacaktır. Böyle bir senaryoyu nasıl önleyebiliriz? Cevap çok açık: dijital bilginin bir bağlamı olmalı. Her bit koleksiyonunun bir geçmişe ihtiyacı vardır. Bağlamı kaybettiğinizde kontrolü de kaybedersiniz.

Parçalar neden kökenlerinin hikayelerine bağlı değildir? Bunun pek çok nedeni var. Web'in orijinal tasarımı, muhtemelen ağın hızla büyümesini kolaylaştırmak için bitlerin nereden geldiğinin kaydını tutmuyordu. (Başlangıçta bilgisayarlar ve bant genişliği yetersizdi.) Dijital kaynağa en azından yaklaşık olarak ulaşmak daha mümkün hale geldiğinde neden bitlerin nereden geldiğini hatırlamaya başlamadık? Bana her zaman Web'in olması gerekenden daha gizemli olmasını istediğimizi hissettirdi. Sebep ne olursa olsun, Web her şeyi hatırlamak için yapılırken bağlamını unuttu.

Bugün çoğu insan Web'in ve aslında üzerine inşa edildiği İnternet'in doğası gereği bağlamdan ve kaynaktan yoksun olduğunu kabul ediyor. Bağlamsızlaştırmanın dijital ağ fikrine içkin olduğunu varsayıyoruz. Ancak bu hiçbir zaman böyle olmadı; 1945'te anıtsal bilim adamı Vannevar Bush ve 1960'ta bilgisayar bilimcisi Ted Nelson tarafından ortaya atılan ilk dijital ağ mimarisi önerileri, provenansı korudu. Şimdi A.I. bu yaklaşımı göz ardı etmenin gerçek maliyetini ortaya koyuyor. Kanıt olmadan yapay zekalarımızı kontrol etmenin ya da onları ekonomik olarak adil kılmanın hiçbir yolu yok. Bu da toplumumuzu uçurumun kenarına itme riski taşıyor.

Bir sohbet robotu manipülatif, kaba, tuhaf veya aldatıcı görünüyorsa, nedenini sorduğumuzda ne tür bir yanıt isteriz? Botun davranışını öğrendiği vazgeçilmez öncül örneklerin ortaya çıkarılması bir açıklama sağlayacaktır: örneğin belirli bir hayran kurgusu eserinden veya bir pembe diziden yararlandığını öğrenebiliriz. Bu çıktıya farklı tepkiler verebilir ve modelin girdilerini onu geliştirecek şekilde ayarlayabiliriz. Neden bu tür bir açıklama her zaman mevcut olmasın? Gizliliğe öncelik vermek için kaynağın açıklanmaması gereken durumlar olabilir; ancak kaynak genellikle bireyler ve toplum için gizliliğe münhasır bir bağlılıktan daha faydalı olacaktır.

Veri saygınlığının teknik zorlukları gerçektir ve ciddi bilimsel hırslara ilham vermelidir. Politika zorlukları da önemli olacaktır; bu da belki de anlamlı ve somut olduklarının bir işaretidir. Ancak düşünme şeklimizi değiştirmemiz ve yenileme gibi zor bir işi benimsememiz gerekiyor. Geçmişin fikirlerinde ısrar ederek -bunların arasında, kendisine katkıda bulunan insanlardan bağımsız olarak yaşayan bir yapay zeka olasılığına duyulan hayranlık da var- yeni teknolojilerimizi dünyayı daha da kötüleştirecek şekillerde kullanma riskini alıyoruz. Eğer toplum, ekonomi, kültür, teknoloji ya da diğer faaliyet alanları insanlara hizmet edecekse, bunun tek nedeni insanların hizmet edilmesi gereken özel bir statüye sahip olduğuna karar vermemiz olabilir.

Hiç yorum yok:

Yorum Gönder