Retrieval Augmented Generation (RAG), Büyük Dil Modelleri (LLM'ler) tarafından üretilen yanıtların kalitesini ve güvenilirliğini artırmak için tasarlanmış yapay zekada (AI ) gelişmiş bir tekniktir. Bir LLM'nin üretken yeteneklerini bir bilgi alma sistemi ile birleştirerek çalışır. Bir yanıt oluşturmadan önce, RAG sistemi ilk olarak önceden tanımlanmış bir bilgi kaynağından (bir şirketin dahili belgeleri, belirli bir veritabanı veya web gibi) ilgili bilgi parçacıklarını alır. Alınan bu bağlam daha sonra orijinal kullanıcı sorgusuyla birlikte LLM'ye sağlanarak modelin daha doğru, güncel ve gerçek verilere dayanan yanıtlar üretmesini sağlar ve böylece halüsinasyon gibi sorunları azaltır. Bu yaklaşım, ilk eğitim verilerinin ötesinde harici, güncel bilgilere erişmelerine ve bunları kullanmalarına izin vererek standart LLM'leri geliştirir.
Geri Alım Artırılmış Nesil Nasıl Çalışır?
RAG süreci tipik olarak iki ana aşamadan oluşur:
- Geri alma: Bir kullanıcı bir istem veya sorgu sağladığında, sistem önce ilgili bilgiler için belirli bir bilgi tabanını arar. Bu bilgi tabanı bir vektör veritabanındaki belgeler, web sayfaları veya girişlerden oluşan bir koleksiyon olabilir. Bilgi alma mekanizması, yalnızca anahtar kelime eşleşmelerini değil, sorguyla bağlamsal olarak ilgili metin parçalarını bulmak için genellikle semantik arama gibi teknikler kullanır. Alınan bu parçacıklar bir sonraki aşama için bağlamsal temel görevi görür. Bu süreç genellikle hem sorgunun hem de belgelerin anlamını temsil etmek için katıştırmalardan yararlanır.
- Oluşturma: Orijinal sorgu ve alınan bağlamsal parçacıklar birleştirilmiş bir istem haline getirilir. Bu artırılmış istem daha sonra LLM'ye beslenir. LLM bir yanıt oluşturmak için hem sorguyu hem de sağlanan bağlamı kullanır. Bu, yanıtın yalnızca sorguyla alakalı olmasını değil, aynı zamanda alınan, genellikle daha güncel veya spesifik bilgilerle bilgilendirilmesini sağlar. RAG ile ilgili temel çalışma"Retrieval-Augmented Generation for Knowledge-Intensive NLP Tasks" adlı makalede ayrıntılı olarak açıklanmıştır.
Faydaları ve Uygulamaları
RAG, standart LLM'leri tek başına kullanmaya göre çeşitli avantajlar sunar:
- Geliştirilmiş Doğruluk ve Güvenilirlik: RAG, yanıtları alınan gerçek verilere dayandırarak, LLM'nin yanlış veya uydurma bilgiler(halüsinasyonlar) üretme olasılığını önemli ölçüde azaltır. Bu da kullanıcı güvenini ve sistemin genel doğruluğunu artırır.
- Güncel Bilgiye Erişim: LLM'ler tipik olarak statik veri kümeleri üzerinde eğitilir, yani bilgi kesintileri, eğitimlerinden sonra ortaya çıkan olaylar veya veriler hakkında bilgi sahibi olmalarını engeller. RAG, modellerin sürekli yeniden eğitime ihtiyaç duymadan harici kaynaklardan gelen en son bilgilere erişmesine ve bunları dahil etmesine olanak tanır.
- Alan Özgüllüğü: RAG, belirli, seçilmiş bilgi tabanlarından (örneğin, şirket içi wiki'ler, teknik belgeler, belirli veri kümeleri) bilgi almak üzere yapılandırılabilir. Bu, LLM'lerin uzmanlık alanlarında uzman düzeyinde yanıtlar vermesini sağlar.
- Geliştirilmiş Şeffaflık: Oluşturulan yanıt, alınan belgelere dayandığından, genellikle kaynaklara atıfta bulunmak mümkündür, bu da kullanıcılara şeffaflık ve bilgileri doğrulama olanağı sağlar. Bu, açıklanabilir yapay zeka (XAI) ve yapay zeka etiği ilkeleriyle uyumludur.
- Maliyet-Etkinlik: RAG için bilgi tabanını güncellemek genellikle büyük bir dil modelini yeniden eğitmekten veya ince ayar yapmaktan çok daha ucuz ve hızlıdır.
Gerçek Dünya Örnekleri:
- Müşteri Destek Sohbet Robotları: Bir şirket, bir destek sohbet robotunu güçlendirmek için RAG kullanabilir. Bir müşteri bir soru sorduğunda, sistem şirketin ürün kılavuzlarından, SSS'lerinden ve bilgi tabanı makalelerinden ilgili bilgileri alır. LLM daha sonra bu bağlamı, potansiyel olarak Zendesk gibi platformlarla entegre olarak kesin ve yararlı bir yanıt oluşturmak için kullanır.
- Kurumsal Arama ve Bilgi Yönetimi: Çalışanlar SharePoint veya diğer veritabanları gibi sistemlerde depolanan şirket içi belgeleri sorgulayabilir. RAG, potansiyel olarak geniş belge havuzlarından ilgili bölümleri alır ve yanıtları sentezleyerek çalışanların belgeleri manuel olarak incelemeden bilgileri hızlı bir şekilde bulmalarına yardımcı olur.
RAG ve İlgili Kavramlar
RAG'yi, LLM performansını artırmak için kullanılan diğer yöntemlerden ayırmak faydalı olacaktır:
- İnce ayar: İnce ayar, eğitim sürecini daha küçük, özel bir veri kümesi üzerinde sürdürerek önceden eğitilmiş bir LLM'yi belirli bir göreve veya etki alanına uyarlar. RAG'nin aksine, ince ayar modelin dahili ağırlıklarını değiştirir. İnce ayar, stili uyarlamak veya belirli görevleri öğrenmek için iyiyken, RAG olgusal, güncel bilgileri dahil etmek için daha iyidir. Parameter-Efficient Fine-Tuning (PEFT) gibi teknikler bu yaklaşımın varyasyonlarını sunar.
- İstem Mühendisliği: Bu, istenen yanıtı ortaya çıkarmak için bir LLM'ye verilen giriş isteminin dikkatlice hazırlanmasını içerir. RAG alınan bağlamı komut istemine dahil ederken, komut istemi mühendisliği kullanıcının sorgusunu ve talimatlarını manuel olarak yapılandırmaya odaklanır.
- İpucu Zenginleştirme: İstemi zenginleştirmede RAG'ye benzer şekilde, istem zenginleştirme kullanıcı geçmişinden veya konuşma akışından bağlam ekleyebilir, ancak RAG özellikle oluşturma sürecini temel almak için bir bilgi tabanından harici olgusal verileri almaya odaklanır.
LangChain ve LlamaIndex gibi çerçeveler, RAG boru hatları ve diğer karmaşık LLM uygulamaları oluşturmak için araçlar sağlar.
RAG, daha bilgili ve güvenilir yapay zeka sistemleri yaratma yolunda önemli bir adımı temsil eder ve LLM'lerin geniş üretim gücü ile gerçeklere dayalı doğruluk ve dinamik bilgilere erişim ihtiyacı arasındaki boşluğu doldurur. Öncelikli olarak metinle kullanılsa da, üretimi alınan bilgilerle artırma fikri kavramsal olarak diğer alanlara da uygulanabilir. Örneğin, bilgisayarla görmede (CV), görüntü oluşturma veya analizine rehberlik etmek için ilgili görsel örneklerin veya meta verilerin alınması düşünülebilir, ancak bu hala gelişmekte olan bir araştırma alanıdır. Ultralytics HUB gibi platformlar, aşağıdaki gibi modelleri içeren gelecekteki çok modlu RAG uygulamalarında bilgi kaynağı olarak hizmet edebilecek önemli bileşenler olan modellerin ve veri kümelerinin yönetilmesine yardımcı olur Ultralytics YOLO. Mevcut bilgisayarla görme veri kümelerinin incelenmesi, bu tür sistemler için yararlı olabilecek yapılandırılmış bilgi türlerine ilişkin içgörüler sağlayabilir.