Vad är regulariserad linjär regression?
Vad är regulariserad linjär regression?

Video: Vad är regulariserad linjär regression?

Video: Vad är regulariserad linjär regression?
Video: Regularization Part 1: Ridge (L2) Regression 2024, April
Anonim

Regularisering . Detta är en form av regression , som begränsar/regulariserar eller krymper koefficientuppskattningarna mot noll. Med andra ord, denna teknik motverkar att lära sig en mer komplex eller flexibel modell , för att undvika risken för övermontering. Ett enkelt förhållande till linjär regression ser ut så här.

På motsvarande sätt, vad är lambda vid linjär regression?

När vi har hög examen linjär polynom som används för att passa en uppsättning punkter i en linjär regression för att förhindra överanpassning använder vi regularisering och vi inkluderar en lambda parameter i kostnadsfunktionen. Detta lambda används sedan för att uppdatera theta-parametrarna i algoritmen för gradientnedstigning.

För det andra, vad är syftet med regularisering? Regularisering är en teknik som används för att ställa in fungera genom att lägga till ytterligare en strafftid i felet fungera . Tilläggstermen styr det alltför fluktuerande fungera så att koefficienterna inte tar extrema värden.

Varför behöver vi på så sätt reglera oss i regression?

Målet med regularisering är att undvika övermontering, med andra ord vi försöker undvika modeller som passar extremt bra till träningsdatan (data som används för att bygga modellen), men som passar dåligt till testdata (data som används för att testa hur bra modellen är). Detta är känt som övermontering.

Vad betyder regularisering?

Inom matematik, statistik och datavetenskap, särskilt inom maskininlärning och omvända problem, regularisering är processen att lägga till information för att lösa ett illa ställt problem eller för att förhindra överanpassning. Regularisering gäller objektiva funktioner i illa ställda optimeringsproblem.

Rekommenderad: