10 Aralık 2023 Pazar

Yapay Zeka Bilimi Nasıl Değiştiriyor?

En yeni yapay zeka algoritmaları galaksilerin evrimini inceliyor, kuantum dalga fonksiyonlarını hesaplıyor, yeni kimyasal bileşikler keşfediyor ve daha fazlasını yapıyor. Bilim insanlarının yaptığı ve otomatikleştirilemeyen bir şey var mı?


Günümüz fizik ve astronomi deneylerinin birçoğunun ürettiği çığ gibi büyüyen bilgiye hiçbir insanın ya da insan ekibinin yetişmesi mümkün değildir. Bazıları her gün terabaytlarca veri kaydediyor ve bu veri seli giderek artıyor. 2020'lerin ortalarında faaliyete geçmesi planlanan bir radyo teleskop olan Square Kilometer Array, her yıl internetin tamamı kadar veri trafiği üretecek.

Bu tufan birçok bilim insanının yardım için yapay zekaya yönelmesine neden oldu. Yapay sinir ağları (beyinlerin işlevini taklit eden bilgisayar simülasyonlu nöron ağları) gibi yapay zeka sistemleri, minimum insan girdisiyle veri dağlarını tarayabilir, anormallikleri vurgulayabilir ve insanların asla fark edemeyeceği kalıpları tespit edebilir.

Elbette, bilgisayarların bilimsel araştırmalara yardımcı olmak için kullanımı yaklaşık 75 yıl öncesine dayanıyor ve anlamlı örüntüler aramak için verileri manuel olarak inceleme yöntemi binlerce yıl önce ortaya çıktı. Ancak bazı bilim insanları, makine öğrenimi ve yapay zeka alanındaki en son tekniklerin bilim yapmanın temelde yeni bir yolunu temsil ettiğini savunuyor. Üretken modelleme olarak bilinen bu tür bir yaklaşım, yalnızca verilere dayanarak ve daha da önemlisi, incelenen sistemde hangi fiziksel süreçlerin iş başında olabileceğine dair önceden programlanmış herhangi bir bilgi olmaksızın, gözlemsel veriler için rakip açıklamalar arasında en makul teoriyi belirlemeye yardımcı olabilir. Üretken modellemenin savunucuları, bunu evren hakkında bilgi edinmenin potansiyel bir "üçüncü yolu" olarak kabul edilecek kadar yeni bir yöntem olarak görmektedir.
Astrofizik hakkında bildiğimiz her şeyi silelim. Sadece verilerin kendisini kullanarak bu bilgiyi ne ölçüde yeniden keşfedebiliriz?

Kevin Schawinski

Geleneksel olarak doğayı gözlem yoluyla öğreniriz. Johannes Kepler'in Tycho Brahe'nin gezegen konumları tablolarını incelediğini ve altta yatan örüntüyü ayırt etmeye çalıştığını düşünün. (Sonunda gezegenlerin eliptik yörüngelerde hareket ettiği sonucuna varmıştır.) Bilim aynı zamanda simülasyon yoluyla da ilerlemiştir. Bir gökbilimci Samanyolu ve komşu galaksisi Andromeda'nın hareketini modelleyebilir ve birkaç milyar yıl içinde çarpışacaklarını öngörebilir. Hem gözlem hem de simülasyon, bilim insanlarının daha sonra başka gözlemlerle test edilebilecek hipotezler üretmelerine yardımcı olur. Üretken modelleme bu iki yaklaşımdan da farklıdır.

Yakın zamana kadar Zürih'teki İsviçre Federal Teknoloji Enstitüsü'nde (ETH Zürih) çalışan astrofizikçi ve üretken modellemenin en hevesli savunucularından biri olan Kevin Schawinski, "Temelde gözlem ve simülasyon arasında üçüncü bir yaklaşım" diyor. "Bu, bir soruna saldırmanın farklı bir yolu."

Bazı bilim insanları, üretken modelleme ve diğer yeni teknikleri geleneksel bilim yapmak için sadece güç araçları olarak görüyor. Ancak çoğu, yapay zekanın muazzam bir etkiye sahip olduğu ve bilimdeki rolünün yalnızca büyüyeceği konusunda hemfikir. Fermi Ulusal Hızlandırıcı Laboratuvarı'nda astrofizikçi olan ve kozmosu incelemek için yapay sinir ağları kullanan Brian Nord, bir insan bilim insanının yaptığı hiçbir şeyin otomatikleştirilmesinin imkansız olmayacağından korkanlar arasında. "Bu biraz ürpertici bir düşünce" dedi.

Nesilden Nesile Keşif

Schawinski, yüksek lisans eğitiminden bu yana veri odaklı bilim alanında adından söz ettiriyor. Doktorası üzerinde çalışırken, binlerce galaksiyi görünümlerine göre sınıflandırma göreviyle karşı karşıya kaldı. Bu iş için hazır bir yazılım bulunmadığından, bu işi kitle kaynaklı yapmaya karar verdi ve böylece Galaxy Zoo vatandaş bilimi projesi doğdu. 2007'den itibaren sıradan bilgisayar kullanıcıları, hangi galaksinin hangi kategoriye ait olduğuna dair en iyi tahminlerini kaydederek gökbilimcilere yardımcı oldular ve çoğunluk kuralı tipik olarak doğru sınıflandırmalara yol açtı. Proje başarılı oldu, ancak Schawinski'nin de belirttiği gibi, yapay zeka bu projeyi geçersiz kıldı: "Bugün, makine öğrenimi geçmişi olan ve bulut bilişime erişimi olan yetenekli bir bilim insanı tüm bunları bir öğleden sonra yapabilir."

Schawinski 2016 yılında yeni ve güçlü bir araç olan üretken modellemeye yöneldi. Esasen, üretken modelleme, X koşulu göz önüne alındığında, Y sonucunu gözlemlemenizin ne kadar olası olduğunu sorar. Yaklaşımın inanılmaz derecede güçlü ve çok yönlü olduğu kanıtlanmıştır. Örnek olarak, her bir yüzün kişinin yaşı ile etiketlendiği bir dizi insan yüzü görüntüsünü üretken bir modelle beslediğinizi varsayalım. Bilgisayar programı bu "eğitim verilerini" taradıkça, daha yaşlı yüzler ile kırışıklık olasılığının artması arasında bir bağlantı kurmaya başlar. Sonunda, kendisine verilen herhangi bir yüzü "yaşlandırabilir" - yani, herhangi bir yaştaki belirli bir yüzün ne gibi fiziksel değişikliklere uğrayacağını tahmin edebilir.

Var olmayan insanlar

Bu yüzlerin hiçbiri gerçek değildir. Üst satırdaki (A) ve sol sütundaki (B) yüzler, gerçek yüzlerin yapı taşı öğeleri kullanılarak üretken bir çelişkili ağ (GAN) tarafından oluşturulmuştur. GAN daha sonra A'daki yüzlerin cinsiyet, yaş ve yüz şekli gibi temel özelliklerini B'deki yüzlerin saç rengi ve göz rengi gibi daha ince özellikleriyle birleştirerek ızgaranın geri kalanındaki tüm yüzleri oluşturmuştur.

En iyi bilinen üretken modelleme sistemleri "üretken çekişmeli ağlardır" (GAN'lar). Eğitim verilerine yeterince maruz kaldıktan sonra, bir GAN hasarlı veya eksik pikselleri olan görüntüleri onarabilir veya bulanık fotoğrafları net hale getirebilir. Eksik bilgileri bir yarışma yoluyla çıkarmayı öğrenirler (bu nedenle " çekişmeli" terimi kullanılır): Ağın jeneratör olarak bilinen bir bölümü sahte veriler üretirken, ikinci bir bölüm olan ayırıcı sahte verileri gerçek verilerden ayırt etmeye çalışır. Program çalıştıkça, her iki yarı da giderek daha iyi hale gelir. Son zamanlarda dolaşımda olan hiper-gerçekçi, GAN tarafından üretilmiş "yüzlerden" bazılarını görmüş olabilirsiniz - bir başlığın ifade ettiği gibi "aslında var olmayan acayip derecede gerçekçi insanların" görüntüleri.

Daha geniş anlamda, üretken modelleme veri kümelerini (genellikle görüntüler, ancak her zaman değil) alır ve her birini bir dizi temel, soyut yapı taşına ayırır - bilim insanları buna verinin "gizli alanı" adını verir. Algoritma, bunun orijinal verileri nasıl etkilediğini görmek için gizli uzayın unsurlarını manipüle eder ve bu, sistemde iş başında olan fiziksel süreçlerin ortaya çıkarılmasına yardımcı olur.

Gizli alan fikri soyuttur ve görselleştirmesi zordur, ancak kaba bir benzetme olarak, bir insan yüzünün cinsiyetini belirlemeye çalıştığınızda beyninizin ne yapıyor olabileceğini düşünün. Belki de saç şeklini, burun şeklini vb. yanı sıra kolayca kelimelere dökemeyeceğiniz kalıpları fark edersiniz. Bilgisayar programı da benzer şekilde veriler arasında göze çarpan özellikler arıyor: Bıyığın ne olduğu veya cinsiyetin ne olduğu hakkında hiçbir fikri olmasa da, bazı görüntülerin "erkek" veya "kadın" olarak etiketlendiği ve bazılarında "bıyık" etiketinin bulunduğu veri setleri üzerinde eğitilmişse, hızlı bir şekilde bir bağlantı çıkaracaktır.

Aralık ayında Astronomy & Astrophysics dergisinde yayınlanan bir makalede Schawinski ve ETH Zürih'ten meslektaşları Dennis Turp ve Ce Zhang, galaksilerin evrimleşirken geçirdikleri fiziksel değişiklikleri araştırmak için üretken modelleme kullandılar. (Kullandıkları yazılım, gizli uzayı üretken bir rakip ağın ele alış biçiminden biraz farklı ele alıyor, bu nedenle benzer olsa da teknik olarak bir GAN değil). Geliştirdikleri model, fiziksel süreçlerle ilgili hipotezleri test etmenin bir yolu olarak yapay veri setleri oluşturdu. Örneğin, yıldız oluşumunun "sönmesinin" - oluşum oranlarında keskin bir düşüş - bir galaksinin çevresinin artan yoğunluğuyla nasıl ilişkili olduğunu sordular.

Schawinski için kilit soru, yıldız ve galaktik süreçler hakkında ne kadar bilginin yalnızca verilerden çıkarılabileceğidir. "Astrofizik hakkında bildiğimiz her şeyi silelim" dedi. "Sadece verilerin kendisini kullanarak bu bilgiyi ne dereceye kadar yeniden keşfedebiliriz?"

İlk olarak, galaksi görüntüleri gizli uzaylarına indirgendi; daha sonra Schawinski, galaksinin ortamındaki belirli bir değişikliğe (örneğin çevresinin yoğunluğu) karşılık gelecek şekilde bu uzayın bir öğesini değiştirebildi. Sonra galaksiyi yeniden oluşturup ne gibi farklılıklar ortaya çıktığını görebiliyordu. "Yani şimdi bir hipotez üretme makinem var" diye açıkladı. "Aslında düşük yoğunluklu bir ortamda bulunan bir grup galaksiyi alıp bu işlemle yüksek yoğunluklu bir ortamdaymış gibi görünmelerini sağlayabilirim."  Schawinski, Turp ve Zhang, galaksiler düşük yoğunluklu ortamlardan yüksek yoğunluklu ortamlara geçtikçe renklerinin daha kırmızı hale geldiğini ve yıldızlarının daha merkezi bir şekilde yoğunlaştığını gördüler. Schawinski, bunun galaksilerle ilgili mevcut gözlemlerle uyuştuğunu söyledi. Asıl soru bunun neden böyle olduğu.

Schawinski bir sonraki adımın henüz otomatikleştirilmediğini söylüyor: "Bir insan olarak gelip, 'Tamam, bu etkiyi ne tür bir fizik açıklayabilir?' demem gerekiyor." Söz konusu süreç için iki makul açıklama var: Belki de galaksiler daha fazla toz içerdikleri için yüksek yoğunluklu ortamlarda daha kırmızı olurlar ya da belki de yıldız oluşumundaki azalma nedeniyle daha kırmızı olurlar (başka bir deyişle, yıldızları daha yaşlı olma eğilimindedir). Üretken bir modelle her iki fikir de test edilebilir: Tozluluk ve yıldız oluşum oranlarıyla ilgili gizli uzaydaki elementler değiştirilerek bunun galaksilerin rengini nasıl etkilediği görülebilir. Schawinski, "Ve cevap açık" dedi. Daha kırmızı galaksiler "yıldız oluşumunun düştüğü yerlerdir, tozun değiştiği yerler değil. Bu yüzden bu açıklamayı tercih etmeliyiz."

Astrofizikçiler, üretken modelleme kullanarak galaksilerin kozmosun düşük yoğunluklu bölgelerinden yüksek yoğunluklu bölgelere geçerken nasıl değiştiğini ve bu değişikliklerden hangi fiziksel süreçlerin sorumlu olduğunu araştırabilirler.

Bu yaklaşım geleneksel simülasyonla ilişkili olmakla birlikte önemli farklılıklar içeriyor. Schawinski, simülasyonun "esasen varsayım odaklı" olduğunu söyledi. "Yaklaşım, 'Sistemde gördüğüm her şeye yol açan temel fiziksel yasaların ne olduğunu bildiğimi düşünüyorum' demek. Yani yıldız oluşumu için bir tarifim var, karanlık maddenin nasıl davrandığına dair bir tarifim var, vb. Tüm hipotezlerimi oraya koyuyorum ve simülasyonun çalışmasına izin veriyorum. Ve sonra soruyorum: Bu gerçekliğe benziyor mu?" Üretken modelleme ile yaptığı şeyin "bir anlamda simülasyonun tam tersi olduğunu" söyledi. Hiçbir şey bilmiyoruz; hiçbir şey varsaymak istemiyoruz. Verinin kendisinin bize neler olabileceğini söylemesini istiyoruz."

Üretken modellemenin böyle bir çalışmadaki belirgin başarısı elbette astronomların ve lisansüstü öğrencilerin gereksiz hale getirildiği anlamına gelmiyor - ancak astrofiziksel nesneler ve süreçler hakkında öğrenmenin, elektronik parmak uçlarında geniş bir veri havuzundan çok az şey bulunan yapay bir sistem tarafından gerçekleştirilebilme derecesinde bir değişimi temsil ediyor gibi görünüyor. Schawinski, "Bu tamamen otomatikleştirilmiş bir bilim değil - ancak bilim sürecini otomatik hale getiren araçları en azından kısmen inşa edebileceğimizi gösteriyor" dedi.

Üretken modelleme açıkça güçlüdür, ancak bilime gerçekten yeni bir yaklaşımı temsil edip etmediği tartışmaya açıktır. New York Üniversitesi ve Flatiron Enstitüsü'nde (Quanta gibi Simons Vakfı tarafından finanse edilen) bir kozmolog olan David Hogg'a göre bu teknik etkileyici ama sonuçta verilerden örüntüler çıkarmanın çok sofistike bir yolu - astronomların yüzyıllardır yaptığı şey de bu. Başka bir deyişle, gözlem artı analizin gelişmiş bir biçimi. Hogg'un kendi çalışması da Schawinski'ninki gibi büyük ölçüde yapay zekaya dayanıyor; yıldızları spektrumlarına göre sınıflandırmak ve veriye dayalı modeller kullanarak yıldızların diğer fiziksel özelliklerini çıkarmak için sinir ağlarını kullanıyor. Ancak Schawinski'nin yanı sıra kendi çalışmalarını da denenmiş ve gerçek bilim olarak görüyor. "Bunun üçüncü bir yol olduğunu düşünmüyorum" dedi geçenlerde. "Sadece bir topluluk olarak verileri nasıl kullandığımız konusunda çok daha sofistike hale geldiğimizi düşünüyorum. Özellikle de verileri verilerle karşılaştırma konusunda çok daha iyi hale geliyoruz. Ancak benim görüşüme göre, benim çalışmam hala gözlemsel modda."

Kavramsal olarak yeni olsalar da olmasalar da, yapay zeka ve sinir ağlarının çağdaş astronomi ve fizik araştırmalarında kritik bir rol oynamaya başladığı açıktır. Heidelberg Teorik Çalışmalar Enstitüsü'nde fizikçi Kai Polsterer, astrofizik yapmak için yeni, veri merkezli yöntemlere odaklanan bir araştırmacı ekibi olan astroinformatik grubuna başkanlık ediyor. Son zamanlarda, daha önce zorlu bir görev olan galaksi veri setlerinden kırmızıya kayma bilgilerini çıkarmak için bir makine öğrenimi algoritması kullanıyorlar.

Polsterer, bu yeni yapay zeka tabanlı sistemleri, sıkılmadan veya çalışma koşullarından şikayet etmeden saatlerce verileri tarayabilen "çalışkan asistanlar" olarak görüyor. Bu sistemlerin tüm sıkıcı işleri yapabileceğini ve size "havalı, ilginç bilimi kendi başınıza yapmayı" bırakacağını söyledi.

Ancak mükemmel değiller. Polsterer, özellikle algoritmaların yalnızca eğitildikleri şeyi yapabilecekleri konusunda uyarıyor. Sistem girdi konusunda "agnostik". Ona bir galaksi verin ve yazılım onun kırmızıya kaymasını ve yaşını tahmin edebilsin - ama aynı sisteme bir selfie ya da çürüyen bir balığın fotoğrafını verin ve o da bunun için (çok yanlış) bir yaş çıkaracaktır. Sonunda, bir insan bilim adamının gözetimi çok önemli olmaya devam ediyor, dedi. "İş dönüp dolaşıp size, araştırmacıya geliyor. Yorumlamadan sorumlu olan sizsiniz."

Fermilab'dan Nord ise, sinir ağlarının yalnızca sonuçları değil, aynı zamanda her lisans öğrencisinin yapmak üzere eğitildiği gibi hata çubuklarını da sunmasının çok önemli olduğu konusunda uyarıyor. Bilimde, bir ölçüm yapar ve ilgili hatanın bir tahminini rapor etmezseniz, kimse sonuçları ciddiye almayacaktır, dedi.

Birçok yapay zeka araştırmacısı gibi Nord da sinir ağları tarafından üretilen sonuçların anlaşılmazlığından endişe duyuyor; çoğu zaman bir sistem, bu sonucun nasıl elde edildiğine dair net bir resim sunmadan bir cevap veriyor.

Yine de herkes şeffaflık eksikliğinin mutlaka bir sorun olduğunu düşünmüyor. Fransa'daki CEA Saclay Teorik Fizik Enstitüsü'nde araştırmacı olan Lenka Zdeborová, insan sezgilerinin de çoğu zaman aynı derecede anlaşılmaz olduğuna dikkat çekiyor. Bir fotoğrafa bakarsınız ve bir kediyi anında tanırsınız - "ama nasıl tanıdığınızı bilmezsiniz" dedi. "Kendi beyniniz bir anlamda bir kara kutudur."

Yapay zeka destekli, veri odaklı bilime yönelenler sadece astrofizikçiler ve kozmologlar değil. Perimeter Teorik Fizik Enstitüsü ve Ontario'daki Waterloo Üniversitesi'nden Roger Melko gibi kuantum fizikçileri, çok parçacıklı bir sistemi tanımlayan matematiksel "dalga fonksiyonunun" nasıl temsil edileceği gibi bu alandaki en zorlu ve en önemli sorunlardan bazılarını çözmek için sinir ağlarını kullandılar. Yapay zeka, Melko'nun "boyutluluğun üstel laneti" olarak adlandırdığı durum nedeniyle çok önemlidir. Yani, bir dalga fonksiyonunun biçimi için olasılıklar, tanımladığı sistemdeki parçacık sayısı ile üstel olarak artar. Bu zorluk, satranç ya da Go gibi bir oyunda en iyi hamleyi bulmaya çalışmaya benzer: Bir sonraki hamleye bakmaya çalışır, rakibinizin ne oynayacağını hayal eder ve ardından en iyi yanıtı seçersiniz, ancak her hamlede olasılıkların sayısı çoğalır.

Elbette, yapay zeka sistemleri bu oyunların her ikisinde de ustalaştı - satranç, onlarca yıl önce ve Go, 2016'da AlphaGo adlı bir yapay zeka sisteminin en iyi insan oyuncuyu yendiği zaman. Melko, kuantum fiziğindeki problemler için de benzer şekilde uygun olduklarını söylüyor.

Makinenin Zihni

İster Schawinski bilim yapmanın "üçüncü bir yolunu" bulduğunu iddia ederken haklı olsun, ister Hogg'un dediği gibi bu sadece "steroidler üzerinde" geleneksel gözlem ve veri analizi olsun, YZ'nin bilimsel keşfin tadını değiştirdiği ve kesinlikle hızlandırdığı açıktır. YZ devrimi bilimde ne kadar ileri gidecek?

Zaman zaman, bir "robo-bilim insanının" başarılarına ilişkin büyük iddialar ortaya atılıyor. On yıl önce, Adam adlı bir yapay zekalı robot kimyager, ekmek mayasının genomunu araştırdı ve hangi genlerin belirli amino asitlerin yapımından sorumlu olduğunu buldu. (Adam bunu, belirli genleri eksik olan maya türlerini gözlemleyerek ve sonuçları genlere sahip olan türlerin davranışlarıyla karşılaştırarak yaptı).  Wired'ın manşeti şöyleydi: "Robot Kendi Başına Bilimsel Keşif Yaptı."

Yaratıcı olmak için sıkılmaktan hoşlanmamanız gerekir. Ve bir bilgisayarın asla sıkılacağını sanmıyorum.

Kai Polsterer

Yakın zamanda, Glasgow Üniversitesi'nde kimyager olan Lee Cronin, ne tür yeni bileşiklerin oluştuğunu görmek amacıyla kimyasalları rastgele karıştırmak için bir robot kullanmıştır. Reaksiyonları bir kütle spektrometresi, bir nükleer manyetik rezonans makinesi ve bir kızılötesi spektrometre ile gerçek zamanlı olarak izleyen sistem, sonunda hangi kombinasyonların en reaktif olacağını tahmin etmeyi öğrendi. Cronin, başka keşiflere yol açmasa bile, robotik sistemin kimyagerlerin araştırmalarını yaklaşık yüzde 90 oranında hızlandırmasına olanak sağlayabileceğini söyledi.

Geçen yıl ETH Zürih'teki bir başka bilim insanı ekibi, veri kümelerinden fiziksel yasaları çıkarmak için sinir ağlarını kullandı. Bir tür robo-Kepler olan sistemleri, Dünya'dan görüldüğü şekliyle Güneş ve Mars'ın gökyüzündeki konumlarının kayıtlarından güneş sisteminin güneş merkezli modelini yeniden keşfetti ve çarpışan topları gözlemleyerek momentumun korunumu yasasını buldu. Fiziksel yasalar genellikle birden fazla şekilde ifade edilebildiğinden, araştırmacılar sistemin bilinen yasalar hakkında düşünmek için yeni yollar - belki de daha basit yollar - sunup sunamayacağını merak ediyorlar.

Bunların hepsi yapay zekanın bilimsel keşif sürecini başlatmasının örnekleridir, ancak her durumda yeni yaklaşımın ne kadar devrimci olduğunu tartışabiliriz. Belki de en tartışmalı konu, tek başına verilerden ne kadar bilgi elde edilebileceği sorusudur - bu, inanılmaz büyüklükteki (ve giderek büyüyen) veri yığınları çağında acil bir sorudur. Bilgisayar bilimci Judea Pearl ve bilim yazarı Dana Mackenzie, The Book of Why (2018) adlı kitaplarında verilerin "son derece aptalca" olduğunu ileri sürüyor. Nedensellikle ilgili sorular "asla tek başına verilerle yanıtlanamaz" diye yazıyorlar. "Verileri modelsiz bir şekilde analiz eden bir makale ya da çalışma gördüğünüzde, çalışmanın çıktısının sadece özetleyeceğinden ve belki de dönüştüreceğinden, ancak verileri yorumlamayacağından emin olabilirsiniz." Schawinski Pearl'ün pozisyonuna sempati duyuyor, ancak "yalnızca verilerle" çalışma fikrini "biraz saman adam" olarak tanımlıyor. Hiçbir zaman bu şekilde neden-sonuç çıkarımı yaptığını iddia etmediğini söyledi. "Ben sadece verilerle geleneksel olarak yaptığımızdan daha fazlasını yapabileceğimizi söylüyorum."

Sıkça duyduğumuz bir başka argüman da bilimin yaratıcılık gerektirdiği ve -en azından şu ana kadar- bunu bir makineye nasıl programlayacağımız konusunda hiçbir fikrimizin olmadığıdır. (Cronin'in robokimyacısı gibi her şeyi denemek pek de yaratıcı görünmüyor). Polsterer, "Akıl yürüterek bir teori ortaya koymak bence yaratıcılık gerektiriyor," dedi. "Yaratıcılığa her ihtiyaç duyduğunuzda bir insana ihtiyaç duyarsınız." Peki yaratıcılık nereden geliyor? Polsterer bunun can sıkıntısıyla ilgili olduğundan şüpheleniyor - bir makinenin deneyimleyemeyeceği bir şey olduğunu söylüyor. "Yaratıcı olmak için sıkılmaktan hoşlanmamanız gerekir. Ve bir bilgisayarın sıkılacağını hiç sanmıyorum." Öte yandan, Deep Blue ve AlphaGo gibi programları tanımlamak için "yaratıcı" ve "ilham verici" gibi kelimeler sıklıkla kullanılıyor. Ve bir makinenin "zihninin" içinde neler olup bittiğini tanımlama mücadelesi, kendi düşünce süreçlerimizi araştırmakta yaşadığımız zorluğun bir yansımasıdır.

Schawinski kısa bir süre önce akademiden ayrılarak özel sektöre geçti; şu anda Modulos adlı bir startup'ı yönetiyor ve web sitesine göre "yapay zeka ve makine öğrenimi alanındaki gelişmelerin fırtınasının gözünde" çalışıyor.  Mevcut yapay zeka teknolojisi ile tam teşekküllü yapay zihinler arasında ne gibi engeller olursa olsun, o ve diğer uzmanlar, makinelerin insan bilim adamlarının işlerini giderek daha fazla yapmaya hazır olduğunu düşünüyor. Bunun bir sınırı olup olmadığını ise zaman gösterecek.

"Öngörülebilir bir gelecekte, yaşayan en zeki insanların biyolojik donanım kullanarak kendi başlarına yapamadıkları fizik veya matematiği keşfedebilecek bir makine yapmak mümkün olacak mı?" Schawinski merak ediyor. "Bilimin geleceği eninde sonunda bizim asla ulaşamayacağımız bir seviyede çalışan makineler tarafından mı yönlendirilecek? Bilmiyorum. Bu iyi bir soru."

https://tinyurl.com/yswrve7j


Hiç yorum yok:

Yorum Gönder