Doğadan Aldığımız 4 Yapay Zeka Algoritması

Doğadan-aldığımız-4-yapay-zeka-algoritmasıİnternette resim arama, robot görüşü, yüz tanıma ve siber saldırı önleme algoritması nasıl çalışıyor? Algoritmalar online alışverişte müşteri davranışını analiz ediyor, interneti gözetliyor ve hackerların siber saldırı gerçekleştirmesini engelliyor. Yapay zeka ihtiyacı her gün artıyor ve yeni uygulamalar geliştirmek gerekiyor. Yazılımcılar da insan bağışıklık sistemi ile kedi, karınca ve sinek beyninde bulunan doğal algoritmalardan yararlanıyor. Doğadan aldığımız 4 yapay zeka algoritmasını görelim.

Yapay zeka algoritması nedir?

Algoritma dediğimiz zaman Google arama algoritmaları, Adwords reklam botları ve benzeri aklımıza gelir. Ancak, algoritma dediğimiz şey yazılımlara özgü değildir; çünkü bir bilgisayarın internetteki köpek resimlerini tanımak gibi belirli türden bilgiler üretmek için kullanacağı matematik işlemlerini belirten bütün kodlanmış talimatlara algoritma deriz.

Kısacası algoritmalar yemek tarifi gibidir: Bilgisayarların veri toplayıp işlemesi ve kullanıcılara alakalı reklam göstermek gibi istenen işlemleri yapması için gereken bütün talimatları içerirler. Bu yüzden yapa zeka algoritması olduğu gibi doğal algoritmalar da vardır. En basitinden insan DNA’sı donanıma kodlanmış yazılımdır ve sahip olduğumuz genler bedenimizin nasıl çalışacağıyla ilgili yönergeler içerir.

Bu bağlamda yapay zekaya neden yapay dediğimizi de hatırlayalım: Doğal zekayı, özellikle de insan zekasını taklit ettiği için yapay zeka diyoruz. Öyleyse görsel arama, bilgisayar görüşü, sibergüvenlik yazılımları ve network zekası algoritmalarla nasıl çalışıyor?

İlgili yazı: Gerçek Adem: ilk insan ne zaman yaşadı?

Doğadan-aldığımız-4-yapay-zeka-algoritması

 

1. Görsel arama algoritması

İnternette tatlı kedi yavrusu resimleri bulmak istediğiniz zaman, arama algoritması ilgili görselleri hemen hiç hata yapmadan hızla bize gösterir. Bunun için de en yakın komşuları arama algoritmasını kullanır. Algoritmalar büyük bir görsel veritabanı içinde aradığınız resme en çok benzeyen görselleri seçip gösterir. Bu herkesin bilmesi gereken bir özetti. Şimdi detaya girelim.

Derler ki büyük veri olmadan analiz algoritmalarının hiçbir değeri yoktur; ama büyük veri de aynı zamanda belirsiz ve bulanıktır. Bir algoritmanın size doğru kedi resimleri göstermek için çok büyük veriyi analiz etmesi gerekir. Bu da internet bant genişliğinin, işlemci gücünün ve depolama alanının sınırlı olması nedeniyle arama sonuçlarının gösterilmesini çok yavaşlatır.

Düşünün ki algoritmalar internetteki milyonlarca resmi tek tek inceleyecek ve içlerinden sadece aradığınıza uygun olanları gösterecek. Peki siz Google arama motorunun kedileri geç gösterdiğini hiç gördünüz mü? Google aradığınız resimleri yıldırım hızıyla gösteriyor ve bunu doğadan gelen arama algoritması sayesinde yapıyor: Arama algoritmasını iyileştirmenin en kolay yolu yerelliğe duyarlı “hash”leme kullanmaktır.

İlgili yazı: Kodlama İçin En Gerekli 16 Programlama Dili

ca61f102 33b2 488a 9151 35fe0e95d407

 

Peki hash nedir ve nasıl çalışır?

Hash dijital olarak şifrelenmiş bir tür takma addır. Örneğin ecza depolarını düşünün. Eskiden bilgisayarlar yoktu. Peki eczacılar aradığınız ilacı nasıl buluyordu? Binlerce ilaç içinde istenen ilacı tek tek aramak uzun sürerdi. Ancak, eczacı deposunda ağrı kesicilerle antihistaminikler ayrı raflar ve ayrı kutularda durur.

Siz de koca depoyu aramak yerine sadece ağrı kesiciler kutusuna bakarsınız. Hash kısaca budur: İlacın tam yerini bilmezsiniz ama hangi rafta olduğunu bilirsiniz. Bu yöntemi kullanarak ve hashleme yoluyla benzer kedi resimlerini de hızla bulabilirsiniz. Öyleyse hashlere neden şifreli dijital takma adlar dedik? Takma ad kısmını eczacı deposuyla örnekledim. Şifreleme kısmına gelince:

Hashlame öncelikle veri güvenliğinde kullanılan bir cebir fonksiyonudur. Şifrelemek istediğiniz veriyi oluşturan dosya parçacıklarını alır ve bunları sıkıştırarak bir hash değeri üretir. Hash dosyaları şifrelemekte kullanılmaz ama şifrelenmiş dosyaları açmak için kullanılan bir dijital anahtar görevini görür. Öyle ki hashi kırınca şifreyi kırmış olmazsınız.

İlgili yazı: Güneş Yaşlanıyor: Güneş Lekeleri Kayboluyor

Merge of AI and Robotics

 

İdeal hash algoritması

İdeal olarak hashler birebir çalışan fonksiyonlardır; yani her girdiden farklı ve benzersiz bir çıktı verirler. İki farklı girdi aynı çıktıyı vermez. İşte bu yüzden hashi kırarak şifreyi kırmış olmazsınız. Bir hash ne kadar az girdiyle aynı çıktıyı veriyorsa o kadar kalitelidir ama bilgisayarlarda ideal hash üretmek aylar alabilir. Bu nedenle kişiler e-posta ve diğer iletilerini şifrelerken standart hashler kullanır. Amerikan Ulusal Güvenlik Ajansı’nın (NSA) bu zayıf hashleri ele geçirip e-postaların şifresini dolaylı olarak kırması mümkündür. Blokzincir uygulamaları ve blokzincir tabanlı kriptoparalar en güçlü hashleri kullanır.

Google da böyle yapıyor

Kedi resimlerini internette tek tek karşılaştırmak yerine kedileri köpeklerden ayırt eden özelliklere odaklanıyor. Böylece çok sayıda piksel içeren kedi resimlerini çözümlemek yerine sadece kedi resimlerini diğer resimlerden ayıran piksellere odaklanıyor. Bunları da hashleyerek sıkıştırıyor. Böylece hem arka planda Google arama motoru veri merkezleri hızlı çalışıyor hem de küçük veri paketleri ile yavaş internette bile aradığınız resimleri size hızla gösterebiliyor.

Mademki hashlerin genel mantığını anladık, gelelim yerele duyarlı hashlemeye: Bu yöntemde bütün resimlere bir dijital parmak izi, hash atanıyor (ki bunlar bir mezuniyet tezinin pdf görüntüleri bile olabilir). Örneğin makine mühendisliği tezlerinin ilk 5 sayfasındaki satır başlarında hangi harfler geçiyor? Büyük veri içinde bunların bir düzeni olabilir ve bu da felsefe tezlerinden farklı olabilir.

Dikkat ederseniz yerele duyarlı hashleme kullanarak Platon’un benzer benzeri bilir ilkesine dayanan en yakın komşuları-benzerleri arama algoritmasını hızlandırabilirsiniz. Yine de bir yüksek lisans tezini diğer kitaplardan ayırmak için gereken benzerliklere ulaşmak (desen tanıma) uzun sürebilir. Google sadece bu algoritmayı kullansaydı yine yavaş çalışacaktı. Neyse ki sinek algoritması var:

İlgili yazı: İnternetinizi Uçuracak En İyi 10 Modem

Doğadan-aldığımız-4-yapay-zeka-algoritması
Görsel arama algoritması aynı zamanda resimlerdeki çıplaklığı aramakta da kullanılıyor.

 

Sinek arama algoritması mı?

Evet, bu tür tümdengelim algoritmaları, büyük resimden yola çıkarak detaya inen algoritmalar da yavaş olabilir ve bazen hatalı sonuç verebilir. Google bu nedenle doğadaki sineklerden yardım aldı. Karasinekler ve meyve sinekleri, hatta sivrisinekler kokuya gelirler. Daha çok ağzınızdan çıkan karbondioksite, yemek kokusuna veya ten-ter kokunuza gelirler. Peki küçücük sinek beyinleri sizi kedilerden nasıl ayırt ediyor? Sinek beyinlerinin süper bilgisayar olmadığını biliyoruz.

Sinekler kokuları ezberler. Hatta peynir kokusu olan masada meyve de vardır, gideyim meyveyle besleneyim derler. Kitap kokusunun genellikle meyveye götürmediğini de bilir, bunu öğrenirler. 2017 yılında bir grup bilgisayarbilimci sineklerin yerele duyarlı hashleme kullandığını gördüler. Yalnız sinek algoritması tersten çalışıyordu!

Sinekler kokuların ayırt edici birkaç özelliğine beyninde bir kod veriyor ve sadece bu kodları içeren kokuların peşinden gidiyordu. Şimdi diyeceksiniz ki tersten hashleme nedir? Bu blog yazısını alın ve satırbaşlarındaki ilk harflerin yerine rastgele seçtiğiniz birkaç karakter koyun (a harfi yerine !@% gibi). A, b, c için ayrı birer kod belirleyin ama kodlar değişmesin. O zaman ne yaparsınız? Bu blogu sadece sizin bildiğiniz bir kombinasyonla şifrelemiş olursunuz. Sonra da satır başlarındaki ilk sözcüğün kodlarını ezberlersiniz ve dersiniz ki buna benzer yazıları bulup okuyayım.

İlgili yazı: Düz Dünya Teorisini Çürüten 12 Kanıt

hummingbird 2293297 960 720 Copy

 

Tersten hashleme algoritması

Bu yöntem okuduğunuz yazıyı okunaksız kılar ama rastgele verdiğiniz kodlar o yazının benzer yazılarla ortak yanlarını (benzer sözcükler gibi) belirginleştirir, benzer yazılar arasındaki bağıntıları güçlendirir. Hatta hashleme sayesinde diğer yazıları okumaya gerek kalmadan, benzer yazıları sadece benim yazımda hashlediğiniz benzerliklere bakarak tarayabilir ve bulabilirsiniz.

Sinekler bu tümevarım yöntemli yerele duyarlı hashleme algoritması ile benzer kokuları buluyor. Google da en yakın komşuyu arama algoritmasını tersten hashleme ile hızlandırarak size en tatlı kedi yavrusu resimlerini hızla gösteriyor. Doğa 4 milyar yıllık evrimde bu algoritmaları deneme yanılma yöntemiyle geliştirip sineklere kalıtsal olarak aktarmış bulunuyor. Kim bilir? Karmaşık insan beynini böyle araştırmanın bir yolunu bulsak sinek algoritması bizde de çıkacak. 😀

İlgili yazı:  Virüsler Canlı mı ve RNA Yaşamın kökeni mi?

Doğadan-aldığımız-4-yapay-zeka-algoritması
Termit kolonisi.

 

2. Bilgisayar görüşü algoritması

Bilgisayar görüşü her yerde: Tesla otonom araçlar, MR cihazları, yüz tanıma, Çin’de Covid19 hastalarının yüzündeki kızarıklığa (ateşine) bakarak tespit eden güvenlik kameraları, haberiniz olmadan tuvalette bile fotoğrafınızı çekebilecek potansiyele sahip telefon kameraları… Bütün bunlar temelde nesne tanıma özellikli bilgisayar görüşü algoritması kullanıyor.

Son 8 yıla kadar algoritmaları insanlar yazardı. İnsan yüzünün hatlarını eliyle çizerek bilgisayara kodlardı. Artık algoritmaları büyük ölçüde algoritmalar yazıyor, bilgisayar yazılımları kendini kodluyor. Corona virüsü gibi evrim geçiren bilgisayar virüsleri ve bunlara karşı savaşmak için de evrim geçiren antivirüs yazılımları çıkıyor (veri hırsızlığı ve gizli servis istihbarat dünyasında olduğumuz için antivirüs yazılımları çok geriden geliyor). Peki nedir bu kendini yazan algoritmalar?

Evrişimli algoritmalar (CNN) insan yüzlerini ve nesneleri insanların kodlayamayacağı kadar detaylı tanıyor. Bunlar derin öğrenme nöral ağlarına benziyor ama evrişimli algoritmalar kedi beyinleri üzerinde yapılan ve bununla Nobel ödülü kazanan araştırmalarla geliştirilmiş bulunuyor.

İlgili yazı: 5 Soruda Paralel Evrenler

Doğadan-aldığımız-4-yapay-zeka-algoritması 

Kedi görüşü algoritması

1950’li yıllarda nörologlar kedilerin görsel korteksinde basit hücreler denilen bazı nöronlar keşfettiler. Bunlar kedilerin gördüğü dünyadaki nesnelerin sadece en basit görsel öğelerine duyarlıydı.

Bazı nöronlar sağda duran veya ağaçta duran hayvanları görüyordu. Basit hücreler hayvanın fare olup olmadığını anlamak için temel verileri daha karmaşık nöronlara aktarıyor ve böylece kedi beyni gördüklerini basitten karmaşığa giderek tanıyordu.

Kısacası nörologlar beyindeki görsel işlemlerin hiyerarşik, sıradüzenli olduğunu gördüler. İnsan beyni de hem hiyerarşik hem de bağlamsal desen tanıma birimleriyle çalışıyor ve bu da çağrışımlı düşünme, yani yaratıcılığa yol açıyor. Önce A harfini, sonra Af hecesini, Afrika ismini ve Afrika’da yeni bir ebola salgını çıktı cümlesini okumak gibi…

Peki bununla kedi resimlerini nasıl tanıyoruz? Bu kez tersten hashleme algoritmasını evrişimli algoritmayla birleştiriyoruz. Örneğin kedi resminin sadece kulak kıvrımlarını benzetiyor, bunları hashliyor ve hiyerarşik olarak bu kez kulak, yüz, gövde ve nihayet resmin tamamına geçiyoruz. Bütün resim parçalarını hashleyip benzetiyor sonra da resmin tamamının benzerini buluyoruz.

İlgili yazı: Yapay Zeka Nedir ve Nasıl Çalışır?

ERO42rPWAAANbUl

 

3. Sibergüvenlik algoritması

Üçüncü olarak şirketler hacklenmeyi sevmezler. Veritabanını çaldıran şirketlere dava açılır, kötü reklam olur, verileri satın alan rakipleri güçlenir (tabii şirketin kendisi herhangi bir mobil uygulama gibi kişisel bilgileri satarak para kazanmıyorsa 😉). Veritabanını çaldırmayı önlemek için de hackerların sıra dışı web trafiğini tespit etmek gerekir. Sıra dışı trafik algılanırsa veri merkezi internete kapatılır ve saldırının geçmesi beklenir.

Oysa sıra dışı trafiği algılamak zordur; çünkü insanlar makine değildir ve rutin değiştirirler. Çocuğu hasta olan bir anne o gün evden laptopuyla çalışabilir ki Corona sonrasında uzaktan çalışma artacağı için sıra dışı trafiği mesai saatleri ve iş yeri dışındaki faaliyetlere bakarak algılamak zor olacak.

Bu nedenle sıra dışı trafiği algılamanın en iyi yolu makine öğrenmesi kullanmaktır. Bırakın bireysel kullanıcıya yasak olan VPN’leri kullanan saldırı önleme sistemleri, hacker trafiğini makine öğrenmesiyle engellesin. Bunun için sistemdeki anormal kullanıcı davranışlarını saptamak gerekir. Bunların bazılarını anlamak kolaydır. DDoS saldırısı gibi… Diğerlerini fark etmek ve yanlış alarm vermemek ise zordur.

Peki ne yaparsınız? Ağ trafiğini kaydeder ve geriye dönük analiz yaparak şirketinizin normal çalışma rutini ile sıra dışı trafik arasındaki farkları öğrenmeye çalışırsınız. Öyleyse yeni makine öğrenme algoritmasını geliştirirken kimden esinlendik? Sorunun ima ettiği gibi insanlardan, insan vücudundan:

İlgili yazı: 18 Ayda Nasıl 24 Kilo Verdim?

29122039942 14d589b4ec c
Lenfosit.

 

Bağışıklık sistemi algoritması

Vücudumuz hastalık yapıcı virüsler ve bakterileri saptamak için bünyedeki sıra dışı trafiği algılar. Bağışıklık sisteminiz istilacıları saptayıp öldürmek için akyuvarları kullanır. Akyuvar hücrelerinin tıpkı Corona virüsü gibi küçük almaçları vardır ve bunları kullanarak virüs kılıfındaki yabancı proteinleri tanırlar.

Oysa insan vücudu her türlü proteine bağlanıp hepsini yabancı madde ilan edebilecek çok sayıda akyuvar üretir. Bağışıklık sisteminin vücudun kendi dokularına saldırmasını önlemenin iyi yolu dost hücreleri düşman bilen defolu akyuvarları öldürmektir. Akyuvarları boyun altı beziniz (timüs) öldürür. Hatta bazı kanser tedavilerinde timüs bezini kanserli hücre imhasında kullanırız.

Sibergüvenlik için de internet trafiğini analiz eden algoritmalar kullanırız. Bunların içinde yanlış alarm verenleri elemine eder ve geri kalanını sıra dışı trafiği algılamak için saklarız. Geldik network zekasına:

İlgili yazı: İnternette teknik takip ve gözetimi önleme rehberi

Doğadan-aldığımız-4-yapay-zeka-algoritması

 

4. Network zekası

İster internetteki web sitelerini arama sonuçlarında göstermek için endeksleyin isterseniz robot denizaltıyla bir arama-kurtarma operasyonu yürütün, birden fazla bilgisayar kullanmak zorunda kalırsınız. Birkaç bilgisayarı koordine etmek kolaydır ama internete bağlı binlerce veya milyonlarca bilgisayarı koordine etmek, on binlerce sunucu içeren veri merkezlerini yönetmek… işte bu çok zordur.

Bizler de Corona sonrası yeni normalde (artık bunun neresi normalse) gittikçe daha çok otomasyona ihtiyaç duyuyoruz. Yakın gelecekte sıradan bir masa sandalyesinin bile nesnelerin interneti cihazlarıyla akıllanacağı bir döneme giriyoruz. Otomasyon konusundaki en büyük yardımcımız ise dronlar. Bizler dronları uçan robotlar veya Black Mirror dizisindeki katil robot arılar olarak biliriz.

Ancak, 10 yıl sonra akıllı cihazlar sadece bugünkü istemci-sunucu tabanlı ve gözetime dayalı süpermerkezi devletler tarafından kontrol edilmeyecek. Otomasyon düzeyi merkezi yönetim tarafından yönetilemeyecek kadar karmaşık olacak. Böylece yapay zeka yavaş yavaş bağımsızlığını kazanmaya başlayacak. Yazılımcılar da bunun için termit karıncalarının sürü zihniyetinden esinleniyor.

Resimdeki yuva gibi termit kolonileri dev boyutlara ulaşabilir. Oysa termitler tek başına pek zeki değildir. Sadece yuvanın içinde inşa ettikleri odacığı ve yakındaki karıncaların konumunu bilirler. Ancak, her karınca diğeri için inşaat ipuçları bırakır. Bunu da odacığın şekli olarak kodlar. Örneğin diğer odanın nereden başlaması gerektiğini bir çıkıntı yaparak gösterir.

İlgili yazı: Gezegenler Güneş Çevresinde Nasıl Dönüyor?

Doğadan-aldığımız-4-yapay-zeka-algoritması

 

Geleceğin otomasyon algoritması

Birbirinden bağımsız ama işbirilği yaparak çalışan küçük makineler büyük projeler yapacaklar. İşte merkezsiz ve dağıtık yapay zekanın temeli budur. Bilim insanları termit stratejisini stigmerji olarak adlandırıyor ki bu tekniği kullanan TERMES robotlarını geliştirdiler bile.

Sürü zihniyetiyle çalışan TERMES robotları karışık şehir trafiğinde rota optimizasyonu yaparak en kısa sürede hedefine ulaşma egzersizi yapıyor. Bunun için de karıncalar gibi birbirini dolaylı yollardan yönlendiriyor. Rota optimizasyonu ise internet trafiğinden ulaşım, lojistik ve toplu taşımaya dek bir çok alanda kullanılıyor. Robotlar ise en çok hayvanların ne kadar zeki olduğunu araştırarak geliştiriliyor.

Sonuç olarak internet, yerel ağlar, nesnelerin interneti, akıllı toz, akıllı bakteriler, robot hücreler gibi geleceğin teknolojileri merkezi yönetimle kontrol edilemeyecek kadar karmaşık olacak. Merkezsiz sistemler yeni bilgisayar virüslerine uyarlanmak veya yeni virüslere karşı aşı geliştirmek gibi konularda işimizi kolaylaştıracak. Bu da süpermerkezi global sermayenin hoşuna gitmeyecek ama yarattıkları dünya düzeni sürdürülebilir olmadığı için teknolojiye boyun eğmek zorunda kalacaklar.

Böylece doğadan esinlendiğimiz ve internette kullandığımız 4 yapay zeka algoritmasını gördük. Siz de yapay zeka nedir ve nasıl çalışır sorusunun cevabını okuyabilir, süper zekanın varoluş risklerini inceleyebilir ve yapay zeka ile insan zekası arasındaki 10 farkı derin öğrenme ile görebilirsiniz. Geleceğin ideal anarşik ve merkezsiz kuantum blokzincir dünyasına da göz atabilirsiniz. Karantinanın kalktığı şu günlerde 15 gün daha sabredip kalabalıklardan uzak kalarak açık havanın tadını çıkarmaya bakın. Cumaya havalar ısınıyor ve yaz geliyor. Bilim ve felsefeyle dolu muhteşem günler dilerim. 😊

TERMES sürü zihniyeti robotları


1Locality-Sensitive Hashing for Finding Nearest Neighbors (pdf)
2A neural algorithm for a fundamental computing problem
3Inferring the rules of interaction of shoaling fish
4A survey on deep learning in medical image analysis
5Recounting the impact of Hubel and Wiesel
6Principles of a computer immune system
7Swarm Intelligence and Bio-Inspired Computation: An Overview
8Designing Collective Behavior in a Termite-Inspired Robot Construction Team

Yorum ekle

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir

Exit mobile version
Yandex