Regresión Lineal y¹ = b + w¹ * x¹ y¹ = Etiqueta predicha b = Ordenada al origen w¹ = Ponderación del atributo (Pendiente) x¹ = Atributo (Dato conocido) Regresión Lineal con varias dimensiones y¹ = b + w¹ * x¹ + w² * x² + w³ * x³... Perdida La perdida se puede definir de diferentes formas, pero la más simple es la llamada L2 o Error al cuadrado. L2 = (Valor Verdadero - Predicción(x))² ---> Cuanto más nos alejamos del Vv la perdida aumenta al cuadrado (Y - Y¹)² NOTA: A la hora de calcular la perdida se debe hacerlo en todos el conjunto de datos, y no en un solo ejemplo. Error cuadrático medio (ECM ) Es el promedio de las perdidas al cuadrado de todos los ejemplos. Se suman todas y se divide por la cantidad. Si bien MSE se usa comúnmente en el aprendizaje automático, no es la única función de pérdida práctica ni la mejor para todas las circunstancias. Minimización del riesgo empírico El algoritmo de un aprendizaje automático construye un modelo al analizar los ejemplos dados para encontrar un modelo que minimice la perdida. La perdida es un número que indica que tan incorrecta fue la predicción del modelo en un ejemplo. Dicha perdida es la penalidad por un predicción incorrecta NOTA : La meta es encontrar un conjunto de ponderaciones y ordenas al origen que, en promedio, tengan la menor perdida en todos sus ejemplos
Want to create your own Notes for free with GoConqr? Learn more.