15 Mart 2023 Çarşamba

Yapay ve Doğal Zekâ Üzerine...

7 sene önce lisede iken bir web geliştirici olarak çalışıyor ve hobi olarak psikoloji olarak ilgileniyordum. tesadüfen yapay zeka ile ilgili bir makaleye rastladım. oldukça heyecan vericiydi. okumayı bitirdikten sonra, zeka hakkında insani olanı yapay olan ile ilişkisel bir bağlantı kuran teori arayışına giriştim. psikoloji, nöro-bilim, sibernetik, fizik teoloji(yanlış çevirisi fakat galat-ı meşhur hâliyle ilahîyat ya da dinî bilimler), sosyoloji ve birçok diğer disiplinleri inceledim. Binlerce makale ve çalışma, yüzlerce kitap ve düzinelerce ders sonucunda kendimi tatmin edecek bir sonuca varamadım. İşte bu makale bahsi-geçen okumalar neticesinde doğdu.

Wikipedia'da bulunan zeka tanımı ile başlayalım: Bulduklarım arasındaki en iyisi bu:

Bilgiyi algılama veya anlam verme yeteneğinin yanı sıra bir bağlam ya da çevre içerisinde uyum sağlayan davranışların sürdürülmesidir.

Bu tanım bildiğimiz mânâdaki istihbarat şirketlerinden çok daha farklı -İngilizce'de zekâ ve istihbarat için aynı kelime kullanılmaktadır. Onların tanımı daha çok hassas ve değerli olduğu düşünülen verileri toplamaya daha yakın. Her nasılsa biyolojik ve yapay zekâlar radikal bir şekilde farklıdır ve genellikle bir türün varlığı olarak târif edilmektedir. Tür, tam izolasyonda var olamaz ve çevre ile bir şekilde bütünleşiktir.

Yapay türlerin bir izlenimi ile başlayacağım. Çünkü biyolojik olanlara göre bunlar çok daha basittir. Akabinde, biyolojik olanlarla yapay olanların arasındaki ortaklıklara doğru ilerleyeceğim.

Yapay Zekâ

İlk olarak yapay zekanın ne olduğunu anlatmak oldukça güç bir konu iken Babbage'ın analitik makinesi muhtemelen en iyi açıklamadır. Özel uyum sağlayan yeteneği yoktur. Fakat aynı zamanda oldukça esnektir. Maalesef inanılmaz teorik bir güzelliğin karşısında, tek bir prototip oluşturulamamıştır.


Analitik Motorun 1840 yılına ait plan şeması. Kaynak: Wikipedia

İlginç bir şekilde, Turing'in doğması öncesi 50 yıl öncesi tam bir Turing idi. Teorik olarak herhangi hesaplanabilir fonksiyonu veri olarak girdi olarak alabilir ve çıktı olarak mekanik manada üretime girebilir. Sadece bu durum, akıllı cihazlardan 10 üzeri 12 kat daha yavaştır.

Böylelikle algoritmik kompleksite teorisi gelişti ve evrensel bir bilgisayar inşa etmenin nispeten kolay bir iş olduğu yaygın bir şekilde anlaşıldı. Ayrıca, algoritmalar birden fazla şekilde uygulanabilir. Süreç boyunca ortaya çıkan teknolojik zorluklara rağmen, son 70 yılda, aynı fiyata satın alabileceğiniz işlem miktarı her 2 yılda bir kabaca iki katına çıkmıştır.

Başka bir deyişle, herhangi bir politikayı hesaplama potansiyeline sahip bir yapay zeka aracısı oluşturmak oldukça kolaydır. Bununla birlikte, her zaman sağlanan veriler/girdiler ve bunları işlemek için ihtiyaç duyduğu süre ile sınırlı olacaktır. Bu da ilginç bir soruyu gündeme getirmektedir: eğer her bilgisayarın yetenekleri mevcut verilerle sınırlı ise, bunlardan herhangi birine akıllı diyebilir miyiz? Okuyucuyu bu konuda biraz düşünmeye davet ediyorum.

Bağlamı anlamak için, YZ araştırmalarının tarihini kısaca hatırlayalım. İlk günlerden bu yana, kabaca 2 ekole ayrılmıştır: sembolik ve bağlantısal. Sembolik yaklaşım daha çok biçimsel mantığa ve el yapımı bilgiye vurgu yaparken, bağlantısal yaklaşım daha çok istatistiksel öğrenmeye ve yapay sinir ağlarının (YSA) varyasyonlarına odaklanmaktadır. Tarihçeleri kabaca bu şekildedir:



Sinirbilim ve insan beyniyle olan ilişkileri nedeniyle "Turuncu" kamp ilk sırada yer alıyordu ve bu kamp hala "Güçlü YZ" ya da "Yapay Genel Zeka"nın tek başarılı uygulaması olarak kabul ediliyor. Ancak, ilk YSA'lar gerçek dünya sorunlarıyla başa çıkmak için çok kısıtlıydı. Birçoğu doğası gereği doğrusaldı ve Minsky tarafından derinlemesine eleştirilen çok sınırlı yeteneklere sahipti. Aynı zamanda, "Mavi" kamp titiz matematiksel teori geliştirdi ve daha faydalı şeyler yaratabildi.

El yapımı bilgi biriktikçe, bu sistemleri genişletmek gittikçe zorlaştı. Girdi veya çıktı uzaylarının birkaç bin seçenekten daha büyük olduğu senaryolarda sürekli olarak başarısız oldular. Ayrıca, tıpkı olağan yasaların birbiriyle çelişmesi gibi, uzman sistemlerdeki kurallar da birbiriyle çelişiyordu. Ayrıca ölçeklendirilmeleri, bunları çözmek için giderek daha fazla "yargıç" gerektiriyordu. Gelişim tıkandı.

Bu arada, "Turuncu" kamp, dünyanın dört bir yanındaki araştırmacıların denemeye başlamasına olanak sağlamak için makul bir süre içinde ağlarını "eğitmek" için yeterli etiketli veriye ve hesaplama kaynaklarına sahip oldu. Ancak, ilk başarısızlıklarından sonra halkın YSA'lara olan güvenini yeniden kazanmak oldukça zaman aldı. Aynı şekilde geliştiricilerin, boolean ve crisp muadillerinin aksine bulanık mantık ve istatistik fikirlerine alışmaları da zaman aldı.

Fakat YSA'ları daha ayrıntılı olarak tartışmadan önce, birçok alanda yararlı olduğu kanıtlanan diğer birkaç yöntemi vurgulamak istiyorum. Ayrıca, bu zamana kadar tamamen sembolik veya bağlantısal yaklaşımların karma yöntemlere kıyasla daha düşük performansa sahip olduğu anlaşılmıştır. Yalnızca geniş algoritma sınıflarını açıklayacağımı belirtmem gerekiyor çünkü tüm yapay zeka yöntemlerinin kısa açıklamaları bile en az birkaç kitap alır.

Bana göre en dikkate değer olanlar "Karar ağaçları", "Olasılıkçı modeller" ve "Evrimsel Algoritmalar"dır.





Karar ağaçları en basit ve en verimli algoritmalar arasındadır. Kısacası, "öğrenmeleri" verilerin her bir özelliğinden sırayla geçerek ve hangisinin belirli çıktılara yönelik en fazla tahmin gücüne sahip olduğunu bularak gerçekleştirilir. Rastgele Ormanlar gibi daha gelişmiş varyasyonlar daha karmaşık öğrenme teknikleri kullanır ve aynı modelde birden fazla ağacı birleştirir ve çıktıları "oylama" ile elde edilir. Bununla birlikte, temel ilkeler ve sezgi aynı kalır.

Olasılıkçı modeller istatistiksel yöntemleri temsil eder ve YSA'ların yakın akrabalarıdır. Çoğu zaman mimarileri, öğrenme/optimizasyon prosedürlerini ve hatta notasyonu paylaşırlar. Ancak olasılıksal modeller çoğunlukla olasılıksal mantıkla (genellikle Bayesian) kısıtlanırken, YSA'ların bu tür bağlantıları olmayabilir.

Evrimsel hesaplama başlangıçta biyolojik evrimden esinlenmiştir. Özellikle de rastgele mutasyon ve uygunluk fikirlerinden. Değişikliklerin genellikle rastgele olduğu düşünüldüğünde, kısıtlı gürültünün ne kadar etkili olabileceği oldukça şaşırtıcıdır. Bu sınıf, birçok yönden tavlama sürecine benzeyen bir tür rehberli aramadır. Karar ağaçları en basit ve en verimli algoritmalar arasındadır. Kısacası, "öğrenmeleri", verilerin her bir özelliğinden sırayla geçerek ve hangisinin belirli çıktılara yönelik en fazla tahmin gücüne sahip olduğunu bularak gerçekleştirilir. Rastgele Ormanlar gibi daha gelişmiş varyasyonlar daha karmaşık öğrenme teknikleri kullanır ve aynı modelde birden fazla ağacı birleştirir ve çıktıları "oylama" ile elde edilir. Bununla birlikte, temel ilkeler ve sezgi aynı kalır.

Olasılıkçı modeller istatistiksel yöntemleri temsil eder ve YSA'ların yakın akrabalarıdır. Çoğu zaman mimarileri, öğrenme/optimizasyon prosedürlerini ve hatta notasyonu paylaşırlar. Ancak olasılıkçı modeller çoğunlukla olasılıkçı mantıkla (genellikle Bayesian) kısıtlanırken, YSA'ların bu tür bağlantıları olmayabilir.

Evrimsel hesaplama başlangıçta biyolojik evrimden esinlenmiştir. Özellikle de rastgele mutasyon ve uygunluk fikirlerinden. Değişikliklerin genellikle rastgele olduğu düşünüldüğünde, kısıtlı gürültünün ne kadar etkili olabileceği oldukça şaşırtıcıdır. Bu sınıf, birçok yönden tavlama işlemine benzeyen bir tür rehberli aramadır.




Üstelik tüm bu yöntemlerin ortak bir noktası vardır: genellikle çok zayıf bir politikayla başlarlar, ancak bir tür performans değerlendirme işlevinde daha iyi bir puan elde etmek için kademeli olarak gelişirler.

Günümüzde, Makine Öğrenimi teknikleri ve özellikle Derin Öğrenme, yapay zeka araştırma ve geliştirilmesine hakim olmaktadır. Derin Öğrenme, 1 veya 2 ara soyutlama katmanı (sığ modeller olarak adlandırılır) kullanan çoğu makine öğrenimi yönteminin aksine, yüzlerce ve hatta binlerce eğitilebilir katmana sahip olabilir.


Derin ağ ve öğrenilen özellikler. Görüntü kaynağı: edureka.co

Gerçek deneyler yapılmadan önce, bu tür derin ağları eğitmek için tamamen yeni optimizasyon prosedürlerinin keşfedilmesi gerektiğine inanmak yaygındı. Ancak, gradyan inişli eski güzel geri yayılımın (diğer adıyla zincir kuralı) bu işi oldukça iyi yapabileceği ortaya çıktı. Ve bu algoritmalar yüzyıllar önce matematikçiler tarafından biliniyordu. Adam veya RMSProp gibi daha modern algoritmalar GD'nin bazı sorunlarını çözmek için icat edildi, ancak gerçek dünyadaki çoğu durumda gereksiz olduğu ortaya çıktı.

Kısacası, sinir ağının eğitimi aşağıdaki gibi çalışır:
  • Bir grup olası girdi alın
  • İlgili çıktıları hesaplayın
  • Performansı hesaplayın
  • Parametrelerini ayarlamak için hataları bir önceki katmana aktarın (ve ağdaki her katman için tekrarlayın)
  • Performans yeterince iyi olana kadar her olası girdi grubu için tekrarlayın
Gradyan inişi tek makine öğrenimi eğitim algoritması değildir, ancak temel ilkeler bunların ezici çoğunluğu arasında aynı kalır. Sadece hataları politika aracılığıyla geri alın ve parametreleri en aza indirecek şekilde ayarlayın. Bu yaklaşımla ilgili temel endişelerden biri, ağların bazı yerel asgarîlerde takılıp kaldığına ve mümkün olan en iyi ayarı elde edemediğine inanılmasıdır. Bununla birlikte, son teorik gelişmeler, hafif varsayımlar altında birçok sinir ağlarının gerçekten de küresel minimuma ulaşabileceğini göstermektedir.



Gradyan İniş örneği. Kaynak: distill.pub

Derin öğrenmedeki bir diğer ilginç deneysel sonuç ise eğitimin dağıtık öğrenme olarak bilinen yoğun bir şekilde paralelleştirilebilmesidir. Aynı mimariyi aynı anda birden fazla makinede eğitirseniz ve zaman zaman aralarında gradyan alışverişi yaparsanız, 1000 katın üzerinde hızlanma elde edebilirsiniz ve bu çarpan doğrudan mevcut bilgisayar sayısına bağlıdır.

Ayrıca, eğitilen katmanlar benzer görevler için yeniden kullanılabilir. Bu olgu Transfer öğrenme olarak bilinir ve YSA'ların geniş popülaritesinden büyük ölçüde sorumludur. Örneğin, görüntü sınıflandırma için eğitilen bir ağ daha sonra diğer bilgisayarla görme görevleri için kullanılabilir. Aynı ilkeler doğal dil işleme ve diğer alanlar için de geçerlidir. Dahası, aynı ağ farklı modalitelerdeki problemleri çözmek için kullanılabilir.

Tüm bunlar genellikle Takviyeli Öğrenme(Reinforcement Learning) alanında bir araya gelir. RL'nin arkasındaki ilk fikirler, araştırmacıların ödüllerin öğrenmeyi nasıl etkilediğini ve hayvanların davranışlarını nasıl şekillendirdiğini inceledikleri davranışsal psikolojiden ödünç alınmıştır.

Yapay zeka araştırmacıları için RL yöntemleri özellikle ilginçtir çünkü eğitim için doğru çıktıların tamamını gerektirmezler. Örneğin, robota tam olarak nasıl hareket etmesi gerektiğini göstermek yerine, RL tekniklerini kullanarak sadece ne kadar uzağa veya ne kadar hızlı gittiğine bağlı olarak onu ödüllendirebilirsiniz ve gerisini kendisi çözecektir. Bununla birlikte, bu eğitim modu pratikte en zorlayıcı olanıdır ve genellikle nispeten basit görevler için bile düzgün bir şekilde ayarlamak için çok çaba gerektirir.

Kaynak: blog.openai.com

Gerçek dünya problemleri için ortamdaki ödülleri belirlemenin genellikle zor olduğunu ve günümüzde araştırmacıların daha çok iç ödül modellemesine odaklandığını vurgulamak istiyorum.

RL'ye paralel olarak, bir ajanın bir uzman tarafından üretilen girdileri ve çıktıları aldığı ve davranışını yönlendirebilecek bir ödül fonksiyonuna yaklaşmaya çalıştığı Ters Takviye Öğrenme yöntemleri geliştirilmiştir.

Yukarıda bahsedilen yöntemlerin yanı sıra, yapay genel zekaya yönelik bazı araştırmalar önemli ölçüde farklı temellere sahiptir. Bu çerçevelerden bazıları katı matematiksel teorilerden türetilmiş, bazıları nöronal devrelerden esinlenmiş ve bazıları da psikolojik modellere dayanmaktadır. Bununla birlikte, çoğunun ortak noktası, popüler muadillerinin başarısız olduğu yönlere odaklanmalarıdır. Vurgulamak istediğim çerçeveler HTM, AIXI, ACT-R ve SOAR'dır.

Hiyerarşik Zamansal Bellek (HTM) ile başlayalım. Başlangıçta neokorteks devrelerinden esinlenen bazı fikirlere dayanıyordu. Ancak, bu devrelerin henüz yeterince iyi anlaşılmadığını ve HTM'nin yalnızca kaba bir yaklaşım olarak hizmet edebileceğini unutmayın.

Bununla birlikte, HTM teorisinin özünde özellikle önemli bir kavram yatmaktadır - Seyrek Dağıtılmış Temsil veya SDR. Pratikte, genellikle yaklaşık birkaç bin elemanlı bir bit dizisidir ve anlamsal olarak ilişkili girdilerin çok sayıda örtüşen bit ile SDR'lere eşleneceği şekilde inşa edilirler. Kavramsal olarak bu, sinir ağları ile elde edilen vektörleştirilmiş temsillere benzer, ancak seyreklik ve aşırı kapasite temel farklardır. Bu fikirler, DNN yakınsama kanıtının arkasındaki temel varsayımlardan biri ağın aşırı parametrelendirilmesi olduğu için özellikle önemlidir.


Gürültü varlığında SDR örtüşmesi örneği. Kaynak: numenta.com

HTM teorisindeki diğer fikirler benim görüşüme göre o kadar da ilginç değil. İnhibisyon, toplu normalizasyon ve diğer bazı düzenli hale getirme tekniklerine benziyor, güçlendirici ML'de nispeten eski bir kavram, neokorteks çok daha karmaşık bağlantı modellerine sahipken hiyerarşik yapı çok katı görünüyor, topoloji normal yapay sinir ağı mimarisiyle eşanlamlı gibi görünüyor ve genel olarak bu teori nesnelere çok fazla ağırlık verirken aralarındaki ilişkilere çok az ağırlık veriyor ve SDR'ler bile aktivasyonları cezalandırırken çok sayıda nöron kullanarak normal YSA'larla inşa edilebilir. Sonuç olarak HTM, diğer ML rakipleriyle karşılaştırılabilir bir performans elde etmek için hala çok fazla ince ayar gerektiriyor. Her neyse, Numenta'nın (HTM'nin arkasındaki şirket) bu fikirlerin basit ve sezgisel açıklamaları için övgüyü hak ettiğine inanıyorum.

Bir sonraki "konuğum" AIXI, bu basitlikten yoksun ancak çok daha sağlam matematiksel temellere sahip. Bununla birlikte, önemli bir dezavantajı var - hesaplanamaz. Aslında, birçok makine öğrenimi algoritmasını tam olarak hesaplamak imkansızdır ve yaklaşık değerlerle uğraşmak zorundayız. Her neyse, bu yaklaşımlar pratikte oldukça iyi performans göstermektedir. AIXI bu şekilde tek bir satırda tanımlanabilir:


Model, eylemler (çıktılar), gözlemler (girdiler) ve ödüller (girdinin belirli bir parçası olarak tanımlanabilir) kullanarak etkileşime giren bir ajan ve bir çevreye sahiptir. Temsilci bir a eylemi gönderir ve ardından çevre hem bir o gözlemi hem de bir r ödülü gönderir ve l(q) terimi çevrenin karmaşıklığını gösterir. Bu süreç her k ve m arası zamanda tekrarlanır. Kaynak: lesswrong.com

Birçok yönden optimal olduğu kanıtlanmıştır ve benim görüşüme göre, günümüzde yapay genel zekanın neye benzeyebileceğinin en iyi matematiksel açıklamasıdır. Ayrıca, AIXI genel amaçlı bir takviye öğrenme ajanıdır ve birçok yönden Schmidhuber tarafından geliştirilen Gödel Makinesi'ne benzer. Bununla birlikte, her ikisi de yapay genel zekanın tanımlayıcı modelleri olarak hizmet eder, yaratılması için tarifler değil. Her neyse, yapay zeka araştırmacıları için büyük ilham kaynaklarıdır.

Aksine, ACT-R veya Adaptive Control of Thought-Rational, sadece bir teori değil, aynı zamanda LISP yazılım dilinde yazılmış bir yazılım çerçevesidir. Geliştirilmesi, diğer diller ve orijinal modelin değiştirilmiş versiyonları için çok sayıda yan ürünle onlarca yıldır sürmektedir.



Kaynak: teachthought.com

ACT-R çoğunlukla farklı bellek türlerine odaklanırken, içindeki verilerin dönüşümlerine daha az odaklanmıştır. İnsan zihninin hesaplamalı bir modeli olarak geliştirilmiş ve bir dereceye kadar başarılı olmuştur. Hafıza üzerine yapılan bazı psikolojik deneylerin yanı sıra fMRI görüntüleme sonuçlarını tahmin etmek için de uygulanmıştır. Ancak, pratik uygulamalarda sürekli olarak başarısız olmuş ve sadece araştırmacılar için bir araç olarak kalmıştır. SOAR, ACT-R ile benzer köklere ve altta yatan hipoteze sahiptir, ancak insan bilişinin modellenmesinden ziyade yapay genel zekaya ulaşmaya odaklanmıştır.

ACT-R ve SOAR, yapay zekaya sembolik yaklaşımın klasik temsilcileridir ve her ikisi de bağlantısal yaklaşımlara göre popülerliğini giderek kaybetmektedir. Bilişsel bilimlerin gelişiminde önemli bir rol oynamışlardır, ancak uygulamaları modern bağlantısal makine öğrenimi muadillerine göre çok daha fazla yapılandırma ve ön bilgi gerektirmektedir. Dahası, nöro-görüntüleme ve zihin çalışmalarına yönelik diğer araçlar daha ayrıntılı ve doğru hale gelirken, hem ACT-R hem de SOAR geride kalıyor ve bir anlamda güncel kalmak için çok katı.

Ancak benim görüşüme göre, YZ'nin geleceği en azından YZ ajanlarının insan dostu sembollerle oluşturulmuş yasalarımızı anlayabildiği ve takip edebildiği ölçüde sembolik olmalıdır.

Vahşi doğada yapay zeka ajanları

Yukarıda çoğunlukla günümüzde var olan YZ ajanlarının politikalarını tanımlayan algoritmaları tanımladım. Ancak, her birinin de bir tür gövdesi vardır: bilgisayarlar, robotlar veya sunucular ve genellikle bağlantı kurdukları internet hizmetleri tarafından tanımlanan çalıştıkları ortam.

Çoğu bilgisayar, akıllı telefon ve diğer aygıtlar çok benzer donanım performansına sahiptir. Politikaları operasyonel sistemler tarafından tanımlanır ve ek yazılımlar indirerek "öğrenirler". İlk bilgisayarlar öğrenmek için tamamen insanlarla etkileşime dayanırken, günümüzde çoğu internet üzerinden güncellemeler almaktadır.

Giderek daha fazla veri bulutlara taşındıkça sunucu aracılarının rolü de artmaktadır. Bu aracılar hesaplama açısından yoğun görevlerin çoğundan sorumludur ve bir nevi merkezi sinir sistemine benzerler. Aksine, tüketiciye yönelik aygıtlar giriş/çıkış yeteneklerini geliştirerek periferik sinirlere benzer hale gelmektedir.



Kaynak: researchgate.net

Bunun uç bir örneği genellikle Nesnelerin İnterneti olarak bilinir; burada düzinelerce küçük, son derece uzmanlaşmış cihazın her biri yalnızca bir veya birkaç işlevi yerine getirirken, merkezi bulut tabanlı "beyin" evleri, fabrikaları ve hatta tüm alanları kontrol etmek için hepsini düzenler.

Buna karşılık, robotik genellikle çok daha otonom ajanlara odaklanır. Bu robotlar genellikle karmaşık gerçek dünya girdi/çıktı kanallarıyla gerçek zamanlı olarak kendileri ilgilenmek zorundadır. Kendi kendine giden araçlar muhtemelen en ünlü örneklerdir:

Voyage sürücüsüz taksinin sistem düzeyinde genel görünümü. Kaynak: news.voyage.auto

Bu sadece basitleştirilmiş bir resimdir, gerçek sistemler genellikle sürekli girdi akışına sahip yüzden fazla sensöre sahipken, çıktıları yaşam ve ölüm arasında bir fark yaratabilir. Bu tür ajanların mühendisliği, günümüzde yapay zeka araştırmalarının en zor alanlarından biridir.

Dahası, tüketici odaklı robotlar bunların sadece küçük bir kısmı ve nispeten yeni bir eğilim iken, çoğunluğu endüstriyel ve askeri ihtiyaçlar için tasarlanmıştır. Bu açıdan bakıldığında, sürücüsüz bir taksinin hatalı davranışı, silahlı bir insansız hava aracının ya da nükleer santral kontrolörlerinin hatasıyla kıyaslandığında küçük bir kaza gibi görünmektedir. Bu tür sistemler için politikaların programlanması kara kutu öğrenme algoritmalarına dayanamaz, ancak genellikle çalışmalarının her yönü için katı matematiksel özellikler içerir.

Sonuç olarak, YZ ajanları her şekil ve renkte karşımıza çıkmaktadır, fakat eğilim, veri merkezleri büyürken çevresel aygıtların küçülmesidir.

Kuantum dünyası

Bu bölüm zeka konusundan kopuk gibi görünse de, fiziğin ve özellikle de kuantum fiziğinin bir dizi nedenden ötürü özel bir ilgiyi hak ettiğine inanıyorum.


Kaynak: physics.stackexchange.com

Her şeyden önce, Kuantum Mekanikleri(QM) tüm yapay ve biyolojik ajanların ortak zeminidir. Hem yarı iletkenlerin hem de biyokimyasal ajanların işleyişi temelde kuantum etkilerine dayanmaktadır. Atomik ya da atom altı düzeyde zekadan bahsetmek pek mantıklı olmasa da, her türlü malzemeden evrensel bilgisayarlar inşa etmek tamamen mümkündür.

İkinci olarak, 300 yıl önce gezegen hareketlerini hesaplamak için geliştirilen matematiksel araçlar, geriye yayılma ve gradyan inişinin temeli oldu. Bunun da ötesinde, olasılık teorisi, istatistiksel mekanik ve matris mekaniği QM için temeldir ve modern yapay zekanın yakın akrabalarıdır. Şu anda Derin Öğrenme simya gibidir, ancak fiziğin onu şu anda anladığımızdan çok daha iyi anlamamıza yardımcı olabileceğine inanıyorum.

Üçüncüsü, kuantum bilişimin yükselişi. Kuantum bilgisayarlar henüz emekleme aşamasında olsa da, mevcut deneyler halihazırda belirli optimizasyon problemleri için önemli bir hızlanma potansiyeli gösteriyor. Örneğin, Boltzmann Makinesi çoğu pratik senaryoda zor olan bir YSA türüdür, bu nedenle uygulayıcılar ilk derin sinir ağlarından biri haline gelen kısıtlı bir varyasyon geliştirdiler. Ancak, belki de kuantum bilgisayarlar BM'lerin ve diğer birçok olasılıksal modelin tüm gücünden yararlanmamızı sağlayacaktır.


Son olarak, QM'i anlamak yukarıda anlatılanlardan çok daha zordur. Olasılık genlikleri, klasik olasılık mantığının ihlali ve atom altı düzeyde gerçekleşen her şeyin belirsiz resmi buzdağının sadece görünen kısmıdır. İronik bir şekilde, birçok insan yapay sinir ağlarını yorumlanabilirliklerinin zayıf olması nedeniyle eleştirirken, insanlar bile kuantum fiziğini sezgisel terimlerle tanımlamakta başarısız olmaktadır.

Biyolojik Ajanlar

Sadece 100 yıl boyunca var olan yapay zeka ajanlarının aksine, biyolojik ajanlar yaklaşık 3 milyar yıldır buradalar. Dünya üzerinde milyonlarca tür var ve hepsinin ortak bir özelliği var: DNA.



Kaynak: evogeneao.com

DNA neden bu kadar önemlidir? Genel olarak hücrenin "merkezi sinir sistemi "dir. Ayrıca, DNA temelli yaşamdan önce RNA temelli organizmaların var olduğu, ancak işlevsel ve yapısal olarak çok benzer oldukları yaygın olarak kabul edilmektedir.

Kaynak: Wikipedia

DNA'nın çoğu, insanlar söz konusu olduğunda yaklaşık %98'i, protein kodlamaz ve uzun süre işe yaramaz olarak kabul edildi. Bununla birlikte, önemli bir kısmı, çevreye bağlı olarak kodlayıcı DNA'nın hangi bölümlerinin aktif olması gerektiğini kontrol etmede önemli bir rol oynar. Ayrıca, DNA'nın bazı kısımları metilasyon yoluyla devre dışı bırakılabilir, bu da tersine çevrilebilir ve yaşam döngüsü boyunca birçok kez gerçekleşebilir.

Tüm bunlar genomun farklı girdi kombinasyonlarına farklı şekillerde tepki vermesini sağlayarak konak hücrenin hangi rolde uzmanlaşması ve ne kadar aktif olması gerektiğine karar verir. Ayrıca, DNA aslında var olmak için bir konak hücreye ihtiyaç duymaz. Hücre dışı DNA bozunur, ancak daha küçük parçalar yıllarca hayatta kalabilir.

Bu arada, modern biyoteknoloji DNA'yı istediğimiz gibi sentezlememize ve düzenlememize izin veriyor, bu nedenle bu noktada yapay ve biyolojik ajanlar arasındaki ayrım temelde ortadan kalkıyor.

Hücreler

Temel işlevsel hücreler proto-hücreler olarak bilinir:




Kaynak: xabier.barandiaran.net

İlk canlı organizmaların neye benzeyebileceğini temsil ediyorlar. Yaklaşık 3 ila 4 milyar yıl önce yeryüzündeki ortamın modelleri, lipit baloncuklarının şans eseri ilk genomları oluşturmak için yeterli nükleotidi içeride yakalamış olabileceğini ve bunların da çevrelerinden besinleri yakalayarak çoğalmaya başlayabileceğini öne sürüyor. Kritik miktarda gen ve diğer kimyasalları biriktirdikten sonra bu kabarcıklar iç basınç kuvveti altında bölünmüştür.

Bir başka basit örnek de virüstür. İkisi arasındaki temel fark, virüslerin iç metabolizmaya sahip olmamaları ve çoğalmak için diğer biyolojik ajanları kullanmaları gerektiğidir. Genomları genellikle çok kısadır ve 1 ya da 2 protein kodlayabilir. Ancak virüsler, yatay gen transferi olarak bilinen süreçte konakçılarıyla DNA alışverişi yoluyla "iletişim kurabilir". Birçok tek hücreli organizma bunu yapabilir ve genel evrimde önemli bir rol oynar.

Buna karşılık bakteriler farklı kimyasallar, ışık, basınç, sıcaklık ve diğer şeyler için birden fazla sensöre sahip olabilir. Birçoğunun moleküler ölçekte normal yanmalı motorlara benzeyen hareket mekanizmaları vardır.


Bakteri E. Coli. Kaynak: gfycat.com

Ayrıca, oldukça gelişmiş bir iletişime sahipler ve sürüler halinde bir araya gelebiliyorlar. Çıktıları artık sadece atık değil. Genomları ve etrafındaki her türlü protein, çok çeşitli besinleri sindirmelerine ve oldukça karmaşık davranışlar sergilemelerine olanak tanır. Ancak genel olarak yapıları protohücreler ve arkelere çok benzer.

Aksine, ökaryotik hücreler oldukça fazla organele sahiptir. Mitokondri ve kloroplast gibi bazılarının kendi DNA parçaları vardır ve geçmişte ayrı organizmalar olmuş olabilirler. Ayrıca mitokondri, metabolizma için temel önem taşıyan Krebs döngüsünde çok önemli bir rol oynar.

Kaynak: biochemanics.wordpress.com

Tipik ökaryotik hücrelerin içinde çok daha karmaşık kimyasal mekanizmalar vardır ancak kendi başlarına hareket etme kabiliyetleri yoktur. Bunun da ötesinde, hayvan hücrelerinde kloroplast ve hücre duvarı bulunmaz, bu da özerkliklerini daha da tehlikeye atar. Genel olarak, yukarıda soldan sağa doğru gösterilen evrim ağacındaki organizmaların hücreleri, daha karmaşık "sosyal" politikalar ve özel işlevler kazanırken, kendi başlarına hayatta kalma yeteneklerini yavaş yavaş kaybederler.

Hücrelerin çevrelerindeki değişikliklere tepki verebilmelerinin en hızlı yollarından biri aksiyon potansiyelleridir. Bazı sensörler kimyasalları, basıncı ya da diğer uyaranları algıladığında, hücre zarındaki elektrik potansiyelinde hızlı bir değişime neden olabilir ve bu da her türlü sonuca yol açan kimyasal reaksiyonları tetikleyebilir.


Venüs Sinekkapan bitkisi. Kaynak: giphy.com

Bununla birlikte, aksiyon potansiyeli sinyali kaynak hücre ve onunla doğrudan membran-membran bağlantısı olan hücrelerle sınırlıdır. Sinyal molekülleri aracılığıyla diğer hücrelere iletilebilir, ancak bu süreç önemli ölçüde yavaştır. Bu darboğazdan kaçınmak için çoğu hayvan özelleşmiş hücrelere sahiptir - nöronlar.



Farklı şekillerde olabilirler ve ömürleri boyunca yeni sinapslar oluşturabilir ya da eskilerini çıkarabilirler. Periferik nöronlar genellikle sadece birkaç yüz bağlantıya sahipken, ara nöronlar 10.000'den fazla bağlantıya sahip olabilir. Tüm bu mekanizma, sinaptik güçleri ayarlayarak sinyalleri hızla hareket ettirmelerini ve dönüştürmelerini sağlar. Ayrıca, omurgalılardaki birçok akson, daha az membran kanalını aktive edip enerji tasarrufu sağlarken elektrik potansiyellerinin daha da hızlı hareket etmesini sağlayan miyelin kılıfına sahiptir.

Bununla birlikte, nöronlar birbirleriyle son derece bağlantılı sistemlerde bulunurlar ve makro ölçekte ne yaptıklarını anlamak için tüm bağlantı sistemini göz önünde bulundurmanız gerekir. Şimdiye kadar en iyi çalışılmış sinir sistemlerinden biri C. elegans solucanıdır:



C. elegans sinir sistemine genel bakış. Nöronların çoğu sinir halkasının yakınındaki birkaç ganglionda bulunur. Kaynak: stb.royalsocietypublishing.org

Görebileceğiniz gibi, 302 nöron bile her birinin ne yaptığını anlamak için gerçek bir zorluk oluşturmaktadır. "Öğreniyor" olmaları ve işlevlerinin gerçek zamanlı olarak değişebileceği gerçeği bu durumu daha da karmaşık hale getirmektedir. Şimdi insan beynindeki milyarlarca hücrede neler olduğunu hayal etmeye çalışın.

Tüm bu karmaşıklık göz önüne alındığında, sinirbilimdeki çoğu araştırma belirli bölgelere, yollara veya hücre tiplerine odaklanmaktadır. Evrimsel olarak eski yapıların çoğu solunum, kalp atışı, uyku/uyanıklık döngüleri, açlık ve diğer hayati öneme sahip işlevlerden sorumludur. Bununla birlikte, serebral korteks diğer her şeyden daha fazla ilgi görmektedir.

Yapısal olarak korteks, yaklaşık 2-3 milimetre kalınlığında ve beynin diğer kısımlarını çevreleyen yaklaşık bir yemek peçetesi kadar bir alana sahip katlanmış katmanlı bir tabakadır.
Korteksin enine kesiti. Kaynak: etc.usf.edu

Dil, bilinç, planlama vb. gibi yüksek bilişsel işlevler olarak kabul ettiğimiz her şeyde yer alır. İnsanlarda korteksin yaklaşık %90'ı, beyindeki en son evrimsel buluşlardan biri olan neokorteks tarafından temsil edilir.

Bir diğer iyi çalışılmış bölge ise hipokampustur:

Kaynak: gregadunn.com

Tüm omurgalılar palyum adı verilen benzer bir yapıya sahiptir, ancak sadece memeliler yukarıda tasvir edilen daha gelişmiş bir versiyona sahiptir. Mekânsal ve epizodik hafızada çok önemli bir rol oynar. Basitçe söylemek gerekirse, bilişsel bir uzamsal-zamansal harita işlevi görür. Bu harita sayesinde beyin karmaşık anıları görsel, işitsel ve diğer temsil türlerinde uzmanlaşmış diğer bölümlerde depolayabilir.

Beyinle ilgili ilk çalışmalar yaralanmalar ve lezyonlar üzerine odaklanmıştır. Ancak, eksik beyin bölgeleri ile eksik bilişsel işlevler arasındaki korelasyonların korteks için nispeten zayıf olduğu ortaya çıktı. Anıların korteks boyunca dağıldığı ve bir kısmının cerrahi olarak çıkarılmasından sonra bile komşu nöronların eksik işlevleri yeniden öğrenebileceği ortaya çıktı. Buna ek olarak, hasarın sınırlarını kesin olarak belirlemek genellikle zordur. Bu çalışmalar bunun gibi haritalar sağladı:


Bu haritalarla ilgili temel sorun, pratik ve teorik olmak üzere her iki uçtaki hassasiyet eksikliğidir. Deneysel ortamda, beynin küçük bölümlerini uyarabilir ve tepkiyi izleyebilirsiniz. Ancak, birincil duyusal ve motor alanlar dışında, genellikle oldukça bulanık sonuçlar verir. Öte yandan, günümüzde denekler bir görevi yerine getirirken beynin hangi bölümlerinin aktif olduğunu izlemek için fonksiyonel manyetik rezonans görüntülemeyi kullanabilirsiniz, ancak alanlar sadece birkaç görevde uzmanlaşmadığından sonuçlar genellikle bulanıktır. Ayrıca, fMRI aslında oksijen kaynağı seviyelerini ölçüyor, bu nedenle bunun gibi bireysel nöronlar düzeyinde aktiviteyi ölçmek için yeterli değil:


Bir hipokampal nöronda diken yayılımı. Kaynak: nature.com

Sinirbilim araştırmalarındaki en umut verici güncel yönlerden biri optogenetiktir. Nöronlar için ışık sensörleri sağlayan genleri kullanarak bireysel nöronların aktivitesini çok daha yüksek hassasiyetle kontrol etmemizi sağlar. Ancak, insanlarla yapılan deneylerde kullanılamayacak genetik manipülasyonlar gerektiriyor.

Beyin aktivitesinin bir başka ilginç özelliği de dalgalar halinde devam etmesidir:


EEG kayıtlarının üst düzey yorumlanması (cps = saniye başına döngü). Kaynak: dickinson.edu

Tüm bu çalışmalar nörolojik hastalıkları anlamamıza ve tedavi etmemize yardımcı olur, ancak bazı bölümlerdeki faaliyetler ile bu kişinin ne yaptığı veya ne düşündüğüne dair oldukça belirsiz tanımlamalar arasındaki korelasyonlar dışında insanların davranışlarını tanımlamaktan uzaktır. Her neyse, zihin araştırmalarına yönelik bu aşağıdan yukarıya yaklaşım, sinirsel faaliyetlerine dayanarak birinin seçimini tahmin etme olasılığı ve beynin "merkezi" bir bölümünün olmadığı gibi birçok önemli keşfe yol açmıştır.

Öte yandan, psikolojik perspektiften davranışsal çalışmalar genetik, kültürel ve çevresel faktörlerden çok fazla etkilenmektedir. Bu araştırmanın en bilinen sonuçlarından biri zeka bölümü ve bunu ölçen testlerdir. Çoklu zeka teorisi, üçlü zeka teorisi ve diğerleri gibi zekayı açıklamaya çalışan birçok teori de vardır. Ancak bunların hiçbiri şu ana kadar geniş çapta kabul görmemiştir.

Psikolojik teorilerin temel sorunu, onları niceliksel olarak kanıtlamanın bir yolunu sağlamayan tanımlayıcı doğalarıdır. Yürümek ya da "merhaba" demek gibi basit eylemlerin bile altında yatan nöron düzeyindeki süreçlerin miktarı son derece büyüktür, ayrıca her hücrenin içindeki DNA ve diğer biyo-makinelerin karmaşıklığı göz önüne alındığında, sinirbilimsel araştırmaların psikolojik yorumu genellikle deneylerin kendisinden bile daha karmaşıktır. Bununla birlikte, bazı insan biliş modelleri davranış ve sinirsel aktivite arasında sağlam bağlantılar kurmaktadır.

Bana göre en ilginç olanı, bu aksiyomlara dayanan Entegre Bilgi Teorisi'dir (IIT):

IIT'nin aksiyomları ve postülatları. Kaynak: wikipedia.org

Diğer teoriler arasında pekiştirmeli öğrenme ve bunun beyinde nasıl uygulandığı, çok sayıda hafıza modeli, görme, işitme, dil ve diğerleri yer almaktadır. Ancak benim görüşüme göre, IIT bunların arasında en genel teorik çerçeveyi önermektedir.

Yukarıda bahsedilen modeller çoğunlukla bireylerin davranışlarına odaklanırken, "sosyal psikoloji" çoğu canlı organizma için çok önemlidir. Bağırsaklarınızdaki bakteri kolonilerinden başlayarak balıklara, karıncalara, arılara, kuşlara ve insan toplumlarına kadar her şey sosyal etkileşimlerden doğar. Karıncaların kimyasal dili ve arıların "dans" yoluyla nasıl iletişim kurdukları hakkında zaten çok şey biliyoruz, ancak insan duygularını anlamak büyük bir zorluk teşkil ediyor. Sahip olduğumuz tüm diller, yasalar ve dinlerle işler daha da karmaşık hale geliyor.

Peki, Zeka nedir?

Pek çok yanıt var, ancak henüz biyolojik ve yapay zekanın yaygın olarak kabul edilen birleşik bir teorisine sahip değiliz. Bununla birlikte, AIXI ve IIT'nin bir karışımının bizi buna yaklaştırabileceğine inanıyorum. Bunları birleştirmek için tıp ve ekonomiden türetilebilecek, her yapay ve biyolojik ajana uygulanabilecek fiziksel bir ödül/fayda kavramına ihtiyacımız olacak ki bu da başlı başına büyük bir sorun.

Neredeyse tüm mevcut zeka ölçümleri bazı görevlerdeki performansa dayanmaktadır ki bu da çevrenin sürekli değiştiği gerçek bir dünyada ve ajanın karşılaşabileceği görevlerde bir sorun teşkil etmektedir. Öte yandan, bilincin "olası herhangi bir deneyim" olarak tanımlanması ve IIT çerçevesi ile AIXI'nin arkasındaki zeka çerçevesinin bir araya getirilmesi, bilişsel performansın daha geniş bir resmini sağlayabilir.

İçeriden bakıldığında, herhangi bir ajanın işleyişi bir kuantum sisteminin dalga fonksiyonu olarak tanımlanabilir, ancak neredeyse tüm durumlarda bu hesaplama açısından zor olacaktır. Ayrıca, öğrenilen ara temsillerin yorumlanması hem biyolojik hem de yapay ajanlar için büyük bir zorluk teşkil etmektedir.

En önemlisi, zekadan nihai olarak tek bir algoritma veya mekanizmanın sorumlu olmadığına, bunun bir ajanın çevresiyle nasıl etkileşimde bulunduğunun bir özelliği olduğuna inanıyorum.

Sırada ne var?

Yapay zekadaki ilerlemeler ve insan zekasının daha derinlemesine anlaşılması birçok avantaja ve tonlarca pratik uygulamaya sahip olsa da, aynı zamanda başa çıkmamız gereken bir dizi zorluğu da ortaya çıkarıyor ve bunların çoğu bu kategorilerden birine giriyor:

Mahremiyet: Önceden verileriniz size ve bir dereceye kadar da devlete aitti ve akışını düzenleyen katı yasalar vardı. Şimdi ise yüzlerce takip hizmeti, sosyal ağ ve diğer şirketler bu verilerin nasıl kullanıldığına dair çok az ya da sıfır açıklama yapıyor.

Sapmalar: Yapay olarak düzenlenmiş olanlar hariç, her eğitim veri setinin sapmaları vardır ve bunlar öneri motorları gibi kapalı döngü sistemlerde artma eğilimindedir.

Hizalama: Çoğu yapay zeka eğitimi, faydayı en üst düzeye çıkarmaya veya hataları en aza indirmeye dayanır ve bu amaç fonksiyonları tüm insan değerlerini ve ahlakını temsil etmez.

Yer değiştirme: Teknolojiler bir süredir birçok görevde insanların yerini alıyor, ancak insan evrimi YZ'ninkinden çok daha yavaş. Sadece birkaç on yıl önce bilgisayarlar profesyoneller için nadir bulunan araçlardı, ancak şimdi onları her gün kullanmadan alakalı kalmak zor.

Siber saldırılar: Siber saldırılardan önce tek bir kişiyi hedef almak için genellikle çok fazla hazırlık gerekirdi, ancak modern YZ bilgi toplayabilir, şifreleri tahmin edebilir, kimlik avı içeriği oluşturabilir ve bu süreçte kendini geliştirirken insanlardan çok daha hızlı bir şekilde başka biri gibi davranabilir.

Psiko-mühendislik: Çok sayıda psikolojik deney ve tarihten alınan dersler, önceden şiddet eğilimi olmayan insanların bile uygun şekilde manipüle edildiğinde gerçek zararlar verebileceğini ortaya koymuştur. Facebook, Google ve diğer büyük şirketler muhtemelen hakkımızda hedefleme, tarama ve temelde her şeyi yapmaya zorlamak için yeterli bilgiye sahipler.

Küresel ekonominin büyük bölümünü kontrol eden ticaret botları söz konusu olduğunda önyargı ve hizalama sorunlarını nasıl güvenilir bir şekilde çözebiliriz? Yapay zeka ajanlarının yeterince iyi eğitilmedikleri senaryolardaki hatalarından kim sorumludur? Zihinlerimizin kontrolünü ele geçiremeyecek hataya dayanıklı beyin-bilgisayar arayüzlerini nasıl yapabiliriz? Ayrıca, bu sorunların çoğu yapay zeka kadar insanlarla da ilgilidir.

5, 10 ya da 20 yıl içinde nereye varacağız? Bilmiyorum ve sizi de YZ ile ilgili tahminler konusunda şüpheci olmaya davet ediyorum. Tarih, önde gelen YZ araştırmacılarının bile çoğu tahmininin, bazen büyük bir farkla, yanlış çıktığını gösteriyor. Bununla birlikte, yapay ve biyolojik zekanın ortak yaşamının kaçınılmaz olduğuna ve ilgili sorunları kabul edip bunlarla başa çıkabilirsek bizim için çok faydalı olabileceğine inanıyorum.


Kaynaklar:

arxiv.org/cs/0309048 — “Goedel Machines: Self-Referential Universal Problem Solvers Making Provably Optimal Self-Improvements” by Juergen Schmidhuber

numenta.com/hierarchical-temporal-memory-white-paper — “Hierarchical Temporal Memory (HTM)” by Jeff Hawkins

amazon.com/Soar-Cognitive-Architecture-John-Laird — “The SOAR Cognitive Architecture” by John E. Laird

act-r.psy.cmu.edu/526FSQUERY.pdf — “ An Integrated Theory of the Mind” by John R. Anderson, Daniel Bothell, Michael D. Byrne, Scott Douglass, Christian Lebiere, Yulin Qin

arxiv.org/1812.06162 — “An Empirical Model of Large-Batch Training” by Sam McCandlish, Jared Kaplan, Dario Amodei, OpenAI Dota Team

arxiv.org/1606.06565 — “Concrete Problems in AI Safety” by Dario Amodei, Chris Olah, Jacob Steinhardt, Paul Christiano, John Schulman, Dan Mané

arxiv.org/1811.03962 — “A Convergence Theory for Deep Learning via Over-Parameterization” by Zeyuan Allen-Zhu, Yuanzhi Li, Zhao Song

arxiv.org/1805.08974 — “Do Better ImageNet Models Transfer Better?” by Simon Kornblith, Jonathon Shlens, Quoc V. Le

apps.dtic.mil/708563.pdf — “Utility Theory for Decision Making” by Peter C. Fishburn

arxiv.org/1812.08342 — “Safety and Trustworthiness of Deep Neural Networks: A Survey” by Xiaowei Huang, Daniel Kroening, Marta Kwiatkowska, Wenjie Ruan, Youcheng Sun, Emese Thamo, Min Wu, Xinping Yi

archive.org/CerebralMechanismsInBehavior — “Cerebral Mechanisms In Behavior” by Lloyd A. Jeffress

cognitivemap.net — “The Hippocampus as a Cognitive Map” by John O’Keefe, Lynn Nadel

mitpress.mit.edu/spikes — “Spikes: Exploring the Neural Code” by William Bialek, Rob de Ruyter van Steveninck, Fred Rieke, David Warland

psyarxiv.com/d6qhu/ — “The Origins of WEIRD Psychology” by Jonathan Schulz, Duman Barahmi-Rad, Jonathan Beauchamp, Joseph Henrich

nature.com/articles/d41586–018–05097-x — “What Is Consciousness?” by Christof Koch

arxiv.org/0706.3639 — “A Collection of Definitions of Intelligence” by Shane Legg, Marcus Hutter

amazon.com/Frames-Mind-Theory-Multiple-Intelligences — “Frames of Mind: The Theory of Multiple Intelligences” by Howard Gardner

amazon.com/Beyond-IQ-Triarchic-Theory-Intelligence — “Beyond IQ: A Triarchic Theory of Human Intelligence” by Robert Sternberg

archive.org/tom_bingham_the_rule_of_law — “The Rule Of Law” by Tom Bingham

link.medium.com/cDzwHQm0YR — “Facebook and the 2018 Midterms: A Look at the Data” by Jonathan Albright

intelligence.org/all-publications

integratedinformationtheory.org

portal.brain-map.org

github.com/OpenWorm

Bunun yanı sıra coursera.org, edx.org ve diğer birçok açık eğitim platformu. Tüm bunları incelemeye başladığımda herhangi bir şey yayınlamayı planlamamıştım, bu nedenle referans listesini toplamadım ve çalışmanız yukarıda açıklanmışsa ve listede yer almıyorsa özür dilerim (bana buradan, twitter @eDezhic veya e-posta yoluyla ulaşmaktan çekinmeyin edezhic@gmail.com).

Kaynak Metin: https://towardsdatascience.com/what-is-intelligence-a69cbd8bb1b4

Hiç yorum yok:

Yorum Gönder