ИИ

Статистика под капотом LinearRegression: почему мы минимизируем именно квадрат ошибки?

Ключевые факты

Дата публикации
08.11.2025 18:00
Категория
ИИ
Просмотры
2

Все ML-инженеры знают о линейной регрессии. Это та самая база, с которой начинает изучение алгоритмов любой новичок. Но вот парадокс: даже многие «прожженные» инженеры не всегда до конца понимают ее истинную работу под капотом.

А именно — какая у «линейки» статистическая связь с Методом Максимального Правдоподобия (MLE) и почему она так сильно «любит» MSE и нормальное распределение. В этой статье мы как раз в этом и разберемся.

Фильтры и сортировка