Adam optimizer'ın uyarlanabilir öğrenme oranları, momentum ve yapay zekadaki gerçek dünya uygulamalarıyla verimli sinir ağı eğitimini nasıl desteklediğini öğrenin.
Adam (Adaptive Moment Estimation), derin öğrenme (DL) ve makine öğreniminde (ML) yaygın olarak kullanılan bir optimizasyon algoritmasıdır. Her parametre için öğrenme oranını ayrı ayrı uyarlayarak eğitim süreci sırasında ağ ağırlıklarını verimli bir şekilde güncellemek için tasarlanmıştır. Diederik P. Kingma ve Jimmy Ba tarafından"Adam: A Method for Stochastic Optimization" adlı makalede tanıtılan Adam, diğer iki popüler optimizasyon tekniğinin avantajlarını bir araya getirmektedir: AdaGrad (Adaptive Gradient Algorithm) ve RMSprop(Root Mean Square Propagation). Bu kombinasyon, çok sayıda parametreye ve karmaşık veri kümelerine sahip büyük sinir ağlarını eğitmek için özellikle etkili olmasını sağlar.
Adam, gradyanların birinci ve ikinci momentlerinin tahminlerine dayanarak her parametre için uyarlanabilir öğrenme oranlarını hesaplar. Esasen, geçmiş gradyanların üstel olarak azalan ortalamasını (momentuma benzer şekilde) ve geçmiş karesel gradyanların üstel olarak azalan ortalamasını (AdaGrad/RMSprop'a benzer şekilde) takip eder.
Tek, sabit bir öğrenme oranı (veya bir programa göre azalan bir oran) kullanan Stokastik Gradyan İnişi (SGD) gibi daha basit algoritmalarla karşılaştırıldığında, Adam'ın parametre başına adaptasyonu, özellikle karmaşık kayıp manzaralarında iyi bir çözüm bulmada genellikle daha hızlı ilerleme sağlar.
Adam çeşitli nedenlerden dolayı popülerdir:
Adam, birçok son teknoloji model için başvurulacak bir optimize edicidir:
Bilgisayarla görmede Adam, görüntü sınıflandırma, nesne algılama ve görüntü segmentasyonu gibi görevler için derin Evrişimsel Sinir Ağlarını (CNN'ler) eğitmek için sıklıkla kullanılır. Örneğin, bir kişinin eğitilmesi Ultralytics YOLO Görüntülerdeki nesneleri(COCO veri kümesindekiler gibi) tespit etmek veya örnek segmentasyonu yapmak için kullanılan model, eğitim aşamasında verimli yakınsama için Adam'dan yararlanabilir. Ayrıca tümör tespiti gibi görevler için tıbbi görüntü analizinde de uygulanmaktadır.
Adam, BERT ve GPT varyantları gibi büyük dil modellerini (LLM'ler) eğitmek için standart bir optimize edicidir. Makine çevirisi, metin özetleme veya duygu analizi gibi görevler için modelleri eğitirken Adam, bu büyük(dönüştürücü tabanlı) modellerle ilişkili karmaşık kayıp fonksiyonu ortamında verimli bir şekilde gezinmeye yardımcı olur.
Ultralytics ekosisteminde, Adam ve varyantı AdamW (ayrıştırılmış ağırlık azalmalı Adam), Ultralytics YOLO modellerini eğitmek için mevcut optimize edicilerdir. Adam'ın uyarlanabilir öğrenme oranlarından yararlanmak, nesne algılama, örnek segmentasyonu veya poz tahmin modellerinin eğitimi sırasında yakınsamayı hızlandırabilir YOLO11 SGD, potansiyel olarak daha iyi nihai genelleme(aşırı uyumdan kaçınma) nedeniyle bazı YOLO modelleri için genellikle varsayılan ve önerilen optimize edici olsa da Adam, özellikle belirli senaryolarda veya ilk deneme ve model değerlendirme sırasında yararlı olan sağlam bir alternatif sunar. Optimize ediciyi ve diğer eğitim ayarlarını kolayca yapılandırabilirsiniz. Ultralytics HUB gibi araçlar, kullanıcıların Adam da dahil olmak üzere çeşitli optimize ediciler kullanarak modelleri yerel olarak veya bulut eğitimi yoluyla eğitmelerine olanak tanıyarak süreci kolaylaştırır. Gibi çerçeveler PyTorch ve TensorFlowUltralytics çerçevesinde kullanılan Adam'ın standart uygulamalarını sağlar. Daha fazla performans iyileştirmesi için, bilgi damıtma veya farklı model mimarilerini keşfetme gibi teknikleri göz önünde bulundurun.