Het klassiek algoritme die dat ook doen betreft regressie-analyse. Dit algoritme, in ieder geval ideeën ervan, worden bij veel AI-programmatuur gebruikt. Simple Lineair Regession yi=β0+β1∗xi+ϵiˆyi=ˆβ0+ˆβ1∗xiei=yi−ˆyiRSS=n∑i=1(ei)2Minimizeβ0β1RSS
Minimaliseren, m.a.w. vaststellen wat de beste combinatie van β0 en β1 is kan op twee manieren:
- Aflleiden via normaalvergelijkingen
- Uitrekenen via gradient-descent algoritme
In statistics and machine learning, the bias–variance tradeoff (or dilemma) is the problem of simultaneously minimizing two sources of error that prevent supervised learning algorithms from generalizing beyond their training set:
The bias is error from erroneous assumptions in the learning algorithm. High bias can cause an algorithm to miss the relevant relations between features and target outputs (underfitting).
The variance is error from sensitivity to small fluctuations in the training set. High variance can cause overfitting: modeling the random noise in the training data, rather than the intended outputs.
Geen opmerkingen:
Een reactie posten