AI sistemleri şimdilik düz mantık işleyen yapılarda. AI sistemlerinin hizmetine sunulan işlemciler matris hesaplama yapısındalar. Girdi, girdi katsayısı, düzeltme eki formülü ile giden seri halindeki transistör kümeleri ile işlem yaptırmaya çalışılıyor. Entegre tasarımcıları aslında işin kolayına kaçıyorlar. Kopyala yapıştır ile yapılan tasarım elbette daha kolay. Önce bu teknoloji tüketilecek. Basit bir LLM için bile milyarlar hatta trilyonlarca döngü toplama, çarpma işlemi yapılıyor. Bu yapı ile asıl zeka yapıları elbette kurulamaz. Mantık gerektiren sorular sorunca afallayıp kalıyor hepsi.
Daha üst düzey zeka yapıları oluşturmak için insan beyni yapısı inceleniyor. Bir veri girdiğinde önce kaydediliyor. Kayıt önceki yapılara benzer ise bu yöntemle çözülebiliyor diyerek anında öğrenme gerçekleşiyor. Eğer önceden gördüğümüz bir mantık yapısına sahip değil ise bunun çözümü için önce uyku sürecine giriyoruz. Uykuda nöronlar arası yeni bağlar oluşuyor. Ardışık tetiklemeler ile eşleşme arayışı uykuda başlıyor. Kalıcı mantık yerleşmesi ise bir kaç uyku döngüsünden sonra ancak ortaya çıkıyor.
Beyin içerisinde bir mantık kurulması için nöronlar birbirine dairesel işlev bağımlılığı ile bağlı. Uyaran etkileşimi başladığında sonuca ulaşmak için aynı nörondan elektriksel akılar çok kez geçiyor. Şu anda kullandığımız AI modelleri girdi girer, çıktı alınır tarzında. Beyinde ise girdi girer, girdi noktasına son hesap nöronundan tekrar tetikleme gelir, en uygun yönelim çıkışına girene dek döngüde kalır tarzında. Milyon çarpı milyon bir matris hesap sonucu ile sonuç bana gelsin tarzında olan işlemcilerdeki transistör sayısı trilyonları aşıyor. Beyinde ise bir karara ulaşmak için yüz adet nöronun ardışık tetiklemesi bile yeterli oluyor. Beyinde, önce hedef nörona uyaran giriyor, oradan beyin zarına atlama, geniş bir arama etkisi tetiklenmesi başlıyor. Beynin problemi çözmesi için gereken hesap nöron kümesi bulunuyor. Cevap bazen bir kümeden bazen birden çok kümeden geliyor. Eleme aşaması ile en alakalı sonuç düşünme aşaması olarak çıkıyor. Yani insan beyninde farklı konularda uzmanlaşmış kümeler eğitiliyor. Günümüz AI çözümleme kodları ve işlemcileri bu yapıdan çok uzakta.
İşlem birimlerinin recursive, döngüsel dinamik bağlantılı, sanki FPGA çipler gibi tasarlanması gerekli. Bu aşamayı geçtikten sonra saçmalama seviyesi daha azaltılmış GAI Generative Artifical Intelligence yapıları başlayacak.
The photonic (super)computer company.
lightmatter.co
beğendiğim bir firma. Halen taş devri teknolojide. Fotonik işlem sunucuları için çalışıyorlar. Bunların dışında fotonik nöron çalışmaları üniversitelerde devam ediyor. Gerçi sayıları bir elin parmaklarını geçmiyorlar.
AI insan ihtiyacı. Birlikte çalıştığım kişilerle fikir alışverişi yaparım, bildikleri deneyimleri ortaya çıkartır ve yapacağım iş için nasıl kullanabilirim diye uğraşırım. Gelecekte yapmak istediklerimiz konusunda AI sistemlerini yönlendirerek bu düşünme aşamasını hızlandırmış olacağız. İnşaat amelesi ile tutup elektronik bir tasarımı konuşmaya çalışırsam çok büyük bir fayda sağlamaz bana. Ama entegre tasarlayan biri ile oturup konuştuğumda yeni yapılar ortaya koymaktaki tıkanıklığımı giderebilir, hatta entegre tasarlarken nörolog bu konuda daha ileri ufuklara bakmamı sağlıyor.
Bir işi hızlandırmak için programları kullanma tarihimiz 60 lara kadar anca gidiyor. 80 senedir programlarla, bilgisayarlarla işlerimizi hızlandırıyoruz. Eskiden tasarladığım makine parçalarını şimdi solidworks ile aynı günde tasarlayıp, üstüne bilgisayarda test edip kusurlarını görüyorum. Eski usulde prototip basar test eder aylar harcardık.
Windows ilk çıktığında büyük olaydı şimdi kendim 90 ların windows ortamını yazabilecek kapasitedeyim. AI ile hedeflerime ulaşmam daha kolay olacak. AI kullanırken inşaat amelesinin yönlendirmesi ile çıkacak sonuç ile benim yönlendirmem ile ortaya çıkacak sonuç elbette çok farklı olacak.
Eğitimde hangi şartları verirseniz sonuç olarak o şartlara uygun bir AI ortaya çıkacaktır. İnternette ne var ne yoksa onu verelim ve sonra ahlaklı bir AI çıksın diye beklemek pek akılcı değil. veri akışının birden bire verilmesi yerine yavaş yavaş basit dil yapısı ve sonra bilimsel mantık verilmesi gerekli. LLM modellerinde benzeşme tablosu var. Bu tablo her kelimenin ne ile bağlantılı olduğunu haritalıyor. Bu tablo parçalara ayrılmalı. Sonra tablolar arasında bağımlılıklar modellenmeli. Döngüsel işleme nöronlarına bağlanarak kendi bölümlerine ait cevaplar toparlanmalı. Bir model yerine binlerce model olmalı. Model deyip duruyorum ama bilmeyenler için modelden kasıt bir eğitilen nöron serisi. Aslında hepsi aynı kalıpla başlayan seriler. Geliştikçe bağ sayısı, nöron sayısı artırılan modeller.
www.tue.nl
ilk adımların atıldığı bir çalışma.
Konu geniş. Yazmaya devam ederim ama şimdiden çok fazla olmuş. Okuyabilen çıkmaz sonra.