Bayesci İstatistiğe Giriş

Tezsiz yüksek lisans dönem projemin bir bölümünü oluşturan Bayesci istatistiğe giriş yazımı Researchgate'de yayınladım: https://www.researchgate.net/publication/338896961_Bayesci_Istatistige_Giris.

Olasılıksal Programlama Nedir?

Olasılıksal Programlama Nedir? Bayes teoremi. Kaynak: https://swarm-help.zendesk.com/hc/en-us/articles/360003046932-Bayes-TheoremBayesci yöntemleri göz önüne aldığımızda, temelde iki farklı yaklaşım bulunmaktadır: istatistiksel modelleme ve olasılıksal programlama. İstatistiksel modelleme, verinin az ve elde edilmesinin zor olduğu alanlarda önem kazanmaktadır. Sosyal Bilimler gibi büyük ölçekli kontrollü deneyleri uygulamanın zor olduğu alanlarda Bayesci modeller uzun yıllardır kullanılmaktadır. Ayrıca, az veri ile belirsizliğin (uncertainty) … Okumaya devam et Olasılıksal Programlama Nedir?

Quantum Supremacy Nedir?

Quantum Supremacy Nedir?Geçtiğimiz günlerde NASA’nın internet sitesinde bir makale yayınlandı ve makale kısa süre sonra yayından kaldırıldı. Söz konusu makalede Google’ın yeni kuantum quantum supremacy’e ulaşıldığı belirtiliyordu. Peki nedir bu quantum supremacy? Photo by Fractal Hassan on UnsplashKuantum bilgisayarları bir çok işlemi günümüzdeki bilgisayarlara göre çok daha hızlı bir şekilde yapabilmekte, bunun sebebi de süperposizyon (superposition) … Okumaya devam et Quantum Supremacy Nedir?

Yapay Sinir Ağları ve Derin Öğrenme – 4

YSA Hiperparametrelerinin belirlenmesi Sinir ağlarının esnekliği bir soruna sebep olmaktadır: ince ayar yapılacak çok sayıda hiperparametre vardır. Basit bir MLP'de bile katmanların sayısı, her katmandaki nöron sayısı ve aktivasyon fonksiyonu, ağırlıkların ilk olarak nasıl belirleneceği gibi bir çok parametre vardır. Bu parametrelerin hangi kombinasyonunun görevimiz için en iyi olduğunu nasıl bilebiliriz? Doğru parametreleri bulmak için … Okumaya devam et Yapay Sinir Ağları ve Derin Öğrenme – 4

Yapay Sinir Ağları ve Derin Öğrenme – 3

Çok Katmanlı Perceptron ve Backpropagation Bir Çok Katmanlı Perceptron (Multi-Layer Perceptron - MLP), bir giriş katmanı, hidden layer olarak adlandırılan bir yada daha fazla LTU katmanı ve bir çıkış katmanından oluşur (Şekil 1). Çıkış katmanı hariç diğer katmanlar yanlılık nöronu içerir ve diğer katmanlara tamamen bağlıdır (fully connected). Bir YSA, iki yada daha fazla hidden … Okumaya devam et Yapay Sinir Ağları ve Derin Öğrenme – 3

Yapay Sinir Ağları ve Derin Öğrenme – 2

Perceptron Perceptron -en basit YSA mimarilerinden biridir- 1957 yılında Frank Rosenblatt tarafından keşfedilmişdir. Yapay nörondan farklı olarak bir doğrusal eşik birimi (Linear threshold unit - LTU) 'ne sahiptir, giriş ve çıkışlar ikili değerler yerine sayılardır ve herbir giriş bir ağırlığa sahiptir. LTU, girişlerin ağırlıklı toplamını hesaplar ($latex z = w_1x_1+w_2x_2+\cdots+w_nx_n=w^T\cdot x$), ardından bu toplama bir … Okumaya devam et Yapay Sinir Ağları ve Derin Öğrenme – 2

Yapay Sinir Ağları ve Derin Öğrenme – 1

Yapay Sinir Ağlarına Giriş Kuşlar uçmamız için bize esin kaynağı oldular, dulavrat otu velcro bantlara ilham verdi ve doğa birçok icadın ilham kaynağı oldu. Akıllı bir makineyi nasıl icat edeceğimize ilham olması için beynin mimarisine bakmamız mantıklı gibi görünüyor. Bununla birlikte, uçaklar kuşlardan esinlenilmiş olsa da, uçaklar kanatlarını çırpmıyor. Benzer şekilde yapay sinir ağları da(YSA … Okumaya devam et Yapay Sinir Ağları ve Derin Öğrenme – 1

t-SNE ile Manifold Learning

Manifold learning algoritmaları, asıl olarak veri görselleştirme için kullanılır. t-SNE (t-Distributed Stochastic Neighbor Embedding), en kullanışlı manifold learning algoritmalarından biridir. t-SNE algoritmasının ana fikri, noktalar arasındaki uzaklıkları olabildiğince koruyacak bir şekilde düşük boyutlu bir temsil bulmaktır. t-SNE, her bir veri noktası için rastgele bir düşük boyutlu temsil ile başlar ve, orjinal uzayda yakın olan noktaları birbirine yakın, uzak … Okumaya devam et t-SNE ile Manifold Learning

Boyut İndirgeme (Dimensionality Reduction) – 5

Locally Linear Embedding (LLE) LLE, bir nonlineer boyut indirgeme ve manifold learning tekniğidir. LLE, ilk olarak eğitim setindeki herbir veri noktasını en yakın komşuları ile doğrusal olarak nasıl ilişkilendireceğini ölçer ve daha sonra, bu yerel ilişkileri en iyi şekilde koruyacak (eğitim setinin) bir düşük boyutlu temsilini arar. Diğer boyut indirgeme teknikleri Multidimensional Scaling (MDS), boyut indirgeme yaparken, … Okumaya devam et Boyut İndirgeme (Dimensionality Reduction) – 5

Boyut İndirgeme (Dimensionality Reduction) – 4

Kernel PCA Destek vektör makinelerinde, nonlineer sınıflandırma yapmamızı sağlayan çekirdek hilesini görmüştük. Çekirdek hilesi benzer şekilde PCA algoritması ile de kullanılabilir ve PCA ile karmaşık nonlineer izdüşümler yapabiliriz. Çekirdek ve parametrelerin belirlenmesi için iki yol izleyebiliriz:  Boyut indirgeme, çoğunlukla bir gözetimli öğrenme görevinin hazırlık aşamalarındandır. O halde, parametreleri, sınıflandırma veya regresyon hatasını minimum yapacak şekilde seçebiliriz. … Okumaya devam et Boyut İndirgeme (Dimensionality Reduction) – 4