Aşırı uyum (overfitting), makine öğreniminde sıkça karşılaşılan bir sorundur ve modelin eğitim verilerini o kadar iyi öğrenmesiyle, yeni ve görülmemiş verilerde kötü performans göstermesi durumunu ifade eder. Bu genellikle modelin, verilerin temel kalıplarının yanı sıra, verilerdeki gürültü ve küçük dalgalanmaları da yakalamasından kaynaklanır. Aşırı uyumu hafifletmenin etkili bir yöntemi, kayıp fonksiyonuna bir ceza terimi eklemektir; bu teknik düzenleme (regularization) olarak bilinir. Düzenleme, modelin karmaşıklığını azaltarak, genelleme yeteneğini artırmasını sağlar.
Düzenleme, eğitim verilerindeki hatayı ölçen orijinal kayıp fonksiyonunu, karmaşık modelleri cezalandıran ek bir terimle değiştirerek çalışır. En yaygın düzenleme tekniklerinden ikisi L1 ve L2 düzenlemedir. L1 düzenleme, aynı zamanda Lasso (Least Absolute Shrinkage and Selection Operator) olarak da bilinir, ceza terimini model katsayılarının mutlak değerlerine orantılı olarak ekler. Matematiksel olarak, L1 düzenleme terimi, kayıp fonksiyonuna ( lambda sum_{i=1}^{n} |w_i| ) olarak eklenir; burada ( lambda ) ceza teriminin gücünü kontrol eden bir hiperparametre ve ( w_i ) model katsayılarını temsil eder. L2 düzenleme, Ridge Regresyonu olarak da adlandırılır ve ceza terimi model katsayılarının karelerine dayanır. L2 düzenleme terimi, ( lambda sum_{i=1}^{n} w_i^2 ) olarak ifade edilir.
Düzenleme uygulamak, bir modelin yeni verilerdeki performansını önemli ölçüde artırabilir. Örneğin, doğrusal regresyonda düzenleme olmadan, model eğitim verilerini mükemmel bir şekilde uyarlayabilir ancak yüksek varyans nedeniyle yeni verileri doğru bir şekilde tahmin edemez. L2 ceza terimi ekleyerek, modelin karmaşıklığı azaltılır ve bu da daha iyi bir genelleme sağlar. Ceza terimi, büyük model katsayılarını caydırarak, modelin küçük veri dalgalanmalarına dayanarak aşırı tahminler yapmasını engeller. Düzenleme, böylece eğitim verilerini iyi bir şekilde uyarlamak ve modelin yeni verilere genelleme kapasitesini korumak arasında bir denge sağlar ve aşırı uyum riskini önemli ölçüde azaltır.
Kayıp fonksiyonuna bir ceza terimi eklemek, model karmaşıklığını sınırlayan ve aşırı uyum sorununa sağlam bir çözüm sunan bir düzenleme kuvveti olarak işlev görür. L1 ve L2 düzenleme gibi tekniklerle, hem eğitim verilerinde doğru hem de görülmemiş verilerde güvenilir tahminler yapabilen modeller oluşturmak mümkündür.