TLDR:
İnce ayar (fine-tuning), önceden eğitilmiş bir temel modeli bir göreve, alana veya stile özel olarak küratörlenmiş bir veri kümesinde daha fazla eğitme sürecidir; sonuç olarak temel modele kıyasla o hedefte daha iyi performans gösteren bir model elde edilir. Modern ince ayar, minimal hesaplama ile modelleri uyarlayan LoRA gibi parametre verimli yöntemlerin egemenliğindedir.
İnce Ayar Yöntemleri
Birkaç ince ayar yaklaşımı vardır: tam ince ayar (tüm model parametrelerini günceller—büyük modeller için pahalı), LoRA (Düşük Sıralı Adaptasyon, küçük eğitilebilir matrisler ekler—modern ince ayar için tipik yöntem), QLoRA (4-bit niceleme ile LoRA—tüketici donanımında çalışır), prompt ayarlama (ağırlıkları değiştirmek yerine yumuşak prompt’ları öğrenir) ve talimat ayarlama (talimat-takip verisi üzerinde ince ayar). Doğrudan tercih optimizasyonu (DPO) ve benzer yöntemler model davranışını insan tercihlerine doğru daha da iyileştirir.
Ne Zaman İnce Ayar Yapılır
İnce ayar şu durumlarda anlamlıdır: temel model güçlü prompt’lama ile bile belirli göreve zorluk çekiyorsa, en az 100-1.000+ yüksek kaliteli eğitim örneğiniz varsa, tutarlı çıktı biçimlendirme veya stil ihtiyacınız varsa, uzun prompt’lar yerine davranışı model ağırlıklarına kodlayarak token maliyetlerini azaltmak istiyorsanız veya daha büyük bir modelin görev performansıyla eşleşen daha küçük, daha hızlı bir modeli dağıtmanız gerekiyorsa. Çoğu jenerik görev için, önce RAG ve prompt mühendisliği denenmelidir.
Veri ve Maliyet Düşünceleri
İnce ayar veri kalitesi miktardan çok daha önemlidir—küratörlenmiş, çeşitli, hatasız örnekler daha büyük gürültülü veri kümelerinden daha iyi modeller üretir. Maliyetler büyük ölçüde değişir: API ince ayar (OpenAI, Anthropic) milyon token başına sentlerden dolarlara kadar değişir; açık modellerin kendi kendine barındırılan LoRA ince ayarı tek bir GPU’da 100 doların altında yapılabilir. Hukuki düşünceler eğitim verisi lisanslaması, çıktı sahipliği ve platform hizmet koşullarına uyumu içerir.