Yapay Sinir Ağları ve Derin Öğrenme – 4

YSA Hiperparametrelerinin belirlenmesi Sinir ağlarının esnekliği bir soruna sebep olmaktadır: ince ayar yapılacak çok sayıda hiperparametre vardır. Basit bir MLP'de bile katmanların sayısı, her katmandaki nöron sayısı ve aktivasyon fonksiyonu, ağırlıkların ilk olarak nasıl belirleneceği gibi bir çok parametre vardır. Bu parametrelerin hangi kombinasyonunun görevimiz için en iyi olduğunu nasıl bilebiliriz? Doğru parametreleri bulmak için … Okumaya devam et Yapay Sinir Ağları ve Derin Öğrenme – 4

Reklamlar

Yapay Sinir Ağları ve Derin Öğrenme – 3

Çok Katmanlı Perceptron ve Backpropagation Bir Çok Katmanlı Perceptron (Multi-Layer Perceptron - MLP), bir giriş katmanı, hidden layer olarak adlandırılan bir yada daha fazla LTU katmanı ve bir çıkış katmanından oluşur (Şekil 1). Çıkış katmanı hariç diğer katmanlar yanlılık nöronu içerir ve diğer katmanlara tamamen bağlıdır (fully connected). Bir YSA, iki yada daha fazla hidden … Okumaya devam et Yapay Sinir Ağları ve Derin Öğrenme – 3

Yapay Sinir Ağları ve Derin Öğrenme – 2

Perceptron Perceptron -en basit YSA mimarilerinden biridir- 1957 yılında Frank Rosenblatt tarafından keşfedilmişdir. Yapay nörondan farklı olarak bir doğrusal eşik birimi (Linear threshold unit - LTU) 'ne sahiptir, giriş ve çıkışlar ikili değerler yerine sayılardır ve herbir giriş bir ağırlığa sahiptir. LTU, girişlerin ağırlıklı toplamını hesaplar ($latex z = w_1x_1+w_2x_2+\cdots+w_nx_n=w^T\cdot x$), ardından bu toplama bir … Okumaya devam et Yapay Sinir Ağları ve Derin Öğrenme – 2

Yapay Sinir Ağları ve Derin Öğrenme – 1

Yapay Sinir Ağlarına Giriş Kuşlar uçmamız için bize esin kaynağı oldular, dulavrat otu velcro bantlara ilham verdi ve doğa birçok icadın ilham kaynağı oldu. Akıllı bir makineyi nasıl icat edeceğimize ilham olması için beynin mimarisine bakmamız mantıklı gibi görünüyor. Bununla birlikte, uçaklar kuşlardan esinlenilmiş olsa da, uçaklar kanatlarını çırpmıyor. Benzer şekilde yapay sinir ağları da(YSA … Okumaya devam et Yapay Sinir Ağları ve Derin Öğrenme – 1

t-SNE ile Manifold Learning

Manifold learning algoritmaları, asıl olarak veri görselleştirme için kullanılır. t-SNE (t-Distributed Stochastic Neighbor Embedding), en kullanışlı manifold learning algoritmalarından biridir. t-SNE algoritmasının ana fikri, noktalar arasındaki uzaklıkları olabildiğince koruyacak bir şekilde düşük boyutlu bir temsil bulmaktır. t-SNE, her bir veri noktası için rastgele bir düşük boyutlu temsil ile başlar ve, orjinal uzayda yakın olan noktaları birbirine yakın, uzak … Okumaya devam et t-SNE ile Manifold Learning

Boyut İndirgeme (Dimensionality Reduction) – 5

Locally Linear Embedding (LLE) LLE, bir nonlineer boyut indirgeme ve manifold learning tekniğidir. LLE, ilk olarak eğitim setindeki herbir veri noktasını en yakın komşuları ile doğrusal olarak nasıl ilişkilendireceğini ölçer ve daha sonra, bu yerel ilişkileri en iyi şekilde koruyacak (eğitim setinin) bir düşük boyutlu temsilini arar. Diğer boyut indirgeme teknikleri Multidimensional Scaling (MDS), boyut indirgeme yaparken, … Okumaya devam et Boyut İndirgeme (Dimensionality Reduction) – 5

Boyut İndirgeme (Dimensionality Reduction) – 4

Kernel PCA Destek vektör makinelerinde, nonlineer sınıflandırma yapmamızı sağlayan çekirdek hilesini görmüştük. Çekirdek hilesi benzer şekilde PCA algoritması ile de kullanılabilir ve PCA ile karmaşık nonlineer izdüşümler yapabiliriz. Çekirdek ve parametrelerin belirlenmesi için iki yol izleyebiliriz:  Boyut indirgeme, çoğunlukla bir gözetimli öğrenme görevinin hazırlık aşamalarındandır. O halde, parametreleri, sınıflandırma veya regresyon hatasını minimum yapacak şekilde seçebiliriz. … Okumaya devam et Boyut İndirgeme (Dimensionality Reduction) – 4

Boyut İndirgeme (Dimensionality Reduction) – 3

Explained Variance Ratio Her bir temel bileşen için, 'Explained Variance Ratio' bilgisine, kodu ile ulaşabiliriz. 'Explained Variance Ratio', kabaca, her bir temel bileşen üzerinde, verisetinin varyansının ne kadarının yer aldığını açıklar. d sayısının seçimi İndirgeyeceğimiz boyutu (d) keyfi olarak belirlemek yerine, verisetinin varyansının büyük ksımını koruyacak şekilde seçmeliyiz. Ancak, boyut indirgemeyi veri görselleştirme için yapıyorsak, … Okumaya devam et Boyut İndirgeme (Dimensionality Reduction) – 3

Boyut İndirgeme (Dimensionality Reduction) – 2

Temel Bileşen Analizi (Principal Component Analysis - PCA) Verisetini düşük boyutlu bir hiperdüzleme indirgemeden önce, doğru hiperdüzlemi seçmemiz gerekiyor. Örneğin, yukarıdaki grafikte, verisetindeki noktaların üç farklı eksen üzerine izdüşümleri alınmıştır. Sağda, en üstteki izdüşümde maksimum varyans, en alttakinde ise minimum varyans vardır. Boyut indirgemede amacımız, maksimum varyans elde edilecek hiperdüzlemi belirlemektir. PCA algoritmasının ana fikri … Okumaya devam et Boyut İndirgeme (Dimensionality Reduction) – 2

Boyut İndirgeme (Dimensionality Reduction) – 1

Birçok makine öğrenimi probleminde, verisetindeki herbir gözlem için yüzler, binler ve belki milyonlarca öznitelik bulunabilir. Bu kadar çok öznitelik olması hem oluşturulan modelin eğitimini yavaşlatmakta hem de iyi bir model oluşturmayı zorlaştırmaktadır. Neyse ki, çoğu zaman, öznitelik sayısını "başedebileceğimiz" bir sayıya indirgeyebiliriz. Örneğin, MNIST verisetinde, resimlerin çerçevelerindeki pikseller neredeyse hep beyazdır, dolayısıyla bu pikselleri çok … Okumaya devam et Boyut İndirgeme (Dimensionality Reduction) – 1