6 sene önce izlemiştim. Çok değerli bir kaynak. teşekkürler.
@murataydn5613
3 жыл бұрын
İşin mantığını anlamadan dünyada hic birsey öğrenilmez ezbere iş olur oda bir süre sonra unutulur.
@ensarc7
6 жыл бұрын
Çıkış katmanında özellikle sınıflandırmada "softmax" i kullanıyoruz. Ancak uğraştığım verilerde "sigmoid" fonksiyonu çok daha yüksek başarı elde ediyor. Bunun sebebi ne olabilir?
@muhammedsalihkarademir9531
5 жыл бұрын
Farklı farklı girdiler farklı farklı fonksiyonlarla daha iyi sonuçlar elde edilebilir.Sonuçta hiç bir araştırmanın ağırlıkları birbiriyle aynı değildir.
@serhat_ozdemir96
6 ай бұрын
Yaptığınız çalışma görsel sınıflandırması mı?
@ahmetylmaz6953
6 жыл бұрын
Merhaba, emeğinize sağlık. Güzel ve oldukça faydalı bir kanal olmuş. Bir konuya değinmek istiyorum. Veriler girdi katmanında aktivasyon fonksiyonundan geçtikten sonra her seferinde 1 sonucunu veriyormuş gibi görünüyor ama işin aslı şudur ki; veriler girdi katmanına girmeden önce normalizasyon (her bir sütundaki en büyük değer 1 en küçük değer de 0 ya da -1 olacak şekilde) uygulanır. Yani girdi verileri [1, 0] ya da [1, -1] aralığına çekildikten sonra input olarak verir. Böylelikle aktivasyon fonksiyonundan geçen net-inputlar her seferinde 1 sonucunu üretmeyip ara-değerler de alırlar. İkinci bir neden rastgele atanan başlangıç ağırlıkları 0 ile 1 arasında olacağı gibi 1 ile -1 arasında da atanması mümkündür.
6 жыл бұрын
Videoları çekeli baya oldu. Değinmiş miyim hatırlamıyorum. tanh -1 ile 1 arası mesela, ya da relu da sizin dedğiniz işi yapmakta. Çok sağolun bilgilendirmeniz için.
Пікірлер: 7