Какво е линейна регресия?

Линейната регресия е статистически метод за моделиране на връзката между независима променлива (x) и зависима променлива (y). Целта е да се намери най-добрата права линия, преминаваща през точките с данни.

Общото уравнение на регресионната права:

y = mx + b

Където:

  • m е наклонът (колко се променя y за единица промяна в x)
  • b е отрезът по оста y (стойността на y когато x = 0)

Формули за изчисление

За намиране на наклона m:

m = (nΣxy − ΣxΣy) / (nΣx² − (Σx)²)

За намиране на отреза по оста y b:

b = (Σy − mΣx) / n

Където n е броят на точките с данни.

Решен пример

x y xy
1 2 2 1
2 4 8 4
3 5 15 9
4 4 16 16
5 5 25 25
Σ=15 Σ=20 Σ=66 Σ=55

m = (5×66 − 15×20) / (5×55 − 15²) = 30 / 50 = 0.6

b = (20 − 0.6×15) / 5 = 11 / 5 = 2.2

Резултат: y = 0.6x + 2.2

Интерпретация

Наклон (m = 0.6): y се увеличава с 0.6 за всяка единица увеличение на x.

Отрез (b = 2.2): правата пресича оста y в точка 2.2.

R²: измерва колко добре линията се вписва в данните (0 до 1).

Приложения

  • Прогнозиране на продажбите
  • Оценка на цените на имотите
  • Анализ на учебни резултати
  • Демографски прогнози