У овом упутству ћете научити
- Једноставна линеарна регресија
- Вишеструка линеарна регресија
- Непрекидне променљиве
- Фактори регресије
- Постепена регресија
- Машинско учење
- Учење под надзором
- Учење без надзора
Једноставна линеарна регресија
Линеарна регресија одговара на једноставно питање: Можете ли измерити тачан однос између једне циљне променљиве и скупа предиктора?
Најједноставнији од пробабилистичких модела је модел праве линије:
где
- и = зависна променљива
- к = Независна променљива
= компонента случајне грешке
= пресретање
= Коефицијент к
Размотрите следећу заплет:
Једначина је пресретање. Ако је к једнако 0, и ће бити једнако пресеку, 4.77. је нагиб линије. Каже у ком пропорцији и варира када к варира.
Да бисте проценили оптималне вредности , користите методу која се назива Обични најмањи квадрати (ОЛС) . Ова метода покушава да пронађе параметре који минимизирају зброј квадрата грешака, односно вертикалну удаљеност између предвиђених вредности и и стварних вредности и. Разлика је позната као појам грешке .
Пре него што процените модел, можете да утврдите да ли је линеарни однос између и и к веродостојан цртањем дијаграма распршења.
Дијаграм расејања
Користићемо врло једноставан скуп података да бисмо објаснили концепт једноставне линеарне регресије. Увешћемо просечне висине и тежине за Американке. Скуп података садржи 15 запажања. Желите да измерите да ли су висине позитивно повезане са тежинама.
library(ggplot2)path <- 'https://raw.githubusercontent.com/guru99-edu/R-Programming/master/women.csv'df <-read.csv(path)ggplot(df,aes(x=height, y = weight))+geom_point()
Излаз:
Распршени дијаграм сугерише општу тенденцију повећања и са повећањем к. У следећем кораку мерите по томе колико се повећава за сваки додатни.
Процене најмање квадрата
У једноставној ОЛС регресији, израчунавање је једноставно. Циљ није показати извод у овом упутству. Написаћете само формулу.
Желите да процените:
Циљ ОЛС регресије је минимизирање следеће једначине:
где
предвиђена вредност.
Решење за
Имајте на уму да то значи просечну вредност к
Решење за
У Р за процену можете користити функцију цов () и вар (), а за процену
beta <- cov(df$height, df$weight) / var (df$height)beta
Излаз:
##[1] 3.45
alpha <- mean(df$weight) - beta * mean(df$height)alpha
Излаз:
## [1] -87.51667
Бета коефицијент подразумева да се за сваку додатну висину тежина повећава за 3,45.
Ручна процена једноставне линеарне једначине није идеална. Р пружа погодну функцију за процену ових параметара. Ускоро ћете видети ову функцију. Пре тога ћемо представити како ручно израчунати једноставан модел линеарне регресије. На свом путовању научника за податке једва ћете или никада нећете проценити једноставан линеарни модел. У већини случајева, регресиони задаци се изводе на великом броју процењивача.
Вишеструка линеарна регресија
Практичније примене регресионе анализе користе моделе који су сложенији од једноставног правоцртног модела. Пробабилистички модел који укључује више од једне независне променљиве назива се вишеструким регресионим моделима . Општи облик овог модела је:
У матричној нотацији можете преписати модел:
Зависна променљива и је сада функција к независних променљивих. Вредност коефицијента .
Укратко уводимо претпоставку коју смо изнели о случајној грешци ОЛС-а:
- Средње једнако 0
- Варијанса једнака
- Нормална расподела
- Случајне грешке су независне (у пробабилистичком смислу)
Морате да решите за , вектор регресионих коефицијената који минимизирају зброј квадрата грешака између предвиђених и стварних вредности и.
Решење затворене форме је:
са:
- означава транспоновање матрице Кс
означава инвертибилну матрицу
Користимо мтцарс скуп података. Већ сте упознати са скупом података. Циљ нам је да предвидимо километражу по галону за низ карактеристика.
Непрекидне променљиве
За сада ћете користити само непрекидне променљиве и оставити по страни категоријске карактеристике. Променљива ам је бинарна променљива која узима вредност 1 ако је мењач ручни и 0 за аутоматске аутомобиле; вс је такође бинарна променљива.
library(dplyr)df <- mtcars % > %select(-c(am, vs, cyl, gear, carb))glimpse(df)
Излаз:
## Observations: 32## Variables: 6## $ mpg21.0, 21.0, 22.8, 21.4, 18.7, 18.1, 14.3, 24.4, 22.8, 19… .## $ disp 160.0, 160.0, 108.0, 258.0, 360.0, 225.0, 360.0, 146.7, 1… ## $ hp 110, 110, 93, 110, 175, 105, 245, 62, 95, 123, 123, 180,… ## $ drat 3.90, 3.90, 3.85, 3.08, 3.15, 2.76, 3.21, 3.69, 3.92, 3.9… ## $ wt 2.620, 2.875, 2.320, 3.215, 3.440, 3.460, 3.570, 3.190, 3… ## $ qsec 16.46, 17.02, 18.61, 19.44, 17.02, 20.22, 15.84, 20.00, 2…
За израчунавање параметара можете користити функцију лм (). Основна синтакса ове функције је:
lm(formula, data, subset)Arguments:-formula: The equation you want to estimate-data: The dataset used-subset: Estimate the model on a subset of the dataset
Запамтите да је једначина следећег облика
у Р.
- Симбол = замењује се са ~
- Сваки к је замењен именом променљиве
- Ако желите да испустите константу, додајте -1 на крају формуле
Пример:
Желите да процените тежину појединаца на основу њихове висине и прихода. Једначина је
Једначина у Р написана је на следећи начин:
и ~ Кс1 + Кс2 +… + Ксн # Са пресретањем
Дакле, за наш пример:
- Тежина ~ висина + приход
Ваш циљ је да процените километражу по галону на основу скупа променљивих. Једначина за процену је:
Процијенит ћете своју прву линеарну регресију и резултат похранити у одговарајући објект.
model <- mpg~.disp + hp + drat + wtfit <- lm(model, df)fit
Објашњење кода
- модел <- мпг ~ . дисп + хп + драт + вт: Спремите модел за процену
- лм (модел, дф): Процените модел помоћу оквира података дф
#### Call:## lm(formula = model, data = df)#### Coefficients:## (Intercept) disp hp drat wt## 16.53357 0.00872 -0.02060 2.01577 -4.38546## qsec## 0.64015
Излаз не пружа довољно информација о квалитету уклапања. Можете приступити више детаља као што су значај коефицијената, степен слободе и облик остатака помоћу функције суммари ().
summary(fit)
Излаз:
## return the p-value and coefficient#### Call:## lm(formula = model, data = df)#### Residuals:## Min 1Q Median 3Q Max## -3.5404 -1.6701 -0.4264 1.1320 5.4996#### Coefficients:## Estimate Std. Error t value Pr(>|t|)## (Intercept) 16.53357 10.96423 1.508 0.14362## disp 0.00872 0.01119 0.779 0.44281## hp -0.02060 0.01528 -1.348 0.18936## drat 2.01578 1.30946 1.539 0.13579## wt -4.38546 1.24343 -3.527 0.00158 **## qsec 0.64015 0.45934 1.394 0.17523## ---## Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1#### Residual standard error: 2.558 on 26 degrees of freedom## Multiple R-squared: 0.8489, Adjusted R-squared: 0.8199## F-statistic: 29.22 on 5 and 26 DF, p-value: 6.892e-10
Закључак из горњег излаза табеле
- Горња табела доказује да постоји снажна негативна веза између тежине и километраже и позитивна веза са дратом.
- Само променљива вт има статистички утицај на мпг. Запамтите, за тестирање хипотезе у статистици користимо:
- Х0: Нема статистичког утицаја
- Х3: Предиктор има значајан утицај на и
- Ако је вредност п нижа од 0,05, то значи да је променљива статистички значајна
- Прилагођени Р-квадрат: Варијансу објашњава модел. У вашем моделу модел је објаснио 82 посто варијансе и. Р на квадрат је увек између 0 и 1. Што је већи то је бољи
Можете да покренете АНОВА тест да бисте проценили ефекат сваке карактеристике на одступања помоћу функције анова ().
anova(fit)
Излаз:
## Analysis of Variance Table#### Response: mpg## Df Sum Sq Mean Sq F value Pr(>F)## disp 1 808.89 808.89 123.6185 2.23e-11 ***## hp 1 33.67 33.67 5.1449 0.031854 *## drat 1 30.15 30.15 4.6073 0.041340 *## wt 1 70.51 70.51 10.7754 0.002933 **## qsec 1 12.71 12.71 1.9422 0.175233## Residuals 26 170.13 6.54## ---## Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
Конвенционалнији начин за процену перформанси модела је приказ резидуала према различитим мерама.
Помоћу функције плот () можете приказати четири графикона:
- Резидуални вс уклопљене вредности
- Нормалан КК заплет: теоријски квартил вс стандардизовани остаци
- Положај скале: Уклапане вредности насупрот квадратним коренима стандардизованих остатака
- Резидуални вс полуга: полуга против стандардизованих резидуала
Додајете код пар (мфров = ц (2,2)) пре цртања (уклапања). Ако не додате овај ред кода, Р ће вас затражити да притиснете команду ентер да бисте приказали следећи графикон.
par(mfrow=(2,2))
Објашњење кода
- (мфров = ц (2,2)): вратите прозор са четири графикона један поред другог.
- Прва 2 додају број редова
- Друга 2 додаје број колона.
- Ако напишете (мфров = ц (3,2)): створићете прозор од 3 реда са 2 колоне
plot(fit)
Излаз:
Формула лм () враћа листу која садржи пуно корисних информација. Можете им приступити помоћу уклопљеног објекта који сте креирали, затим знака $ и информација које желите да извучете.
- коефицијенти: `фит $ коефицијенти`
- остаци: `стане $ остаци`
- уклопљена вредност: `фит $ фит.валуес`
Фактори регресије
У последњој процени модела, регресујете МПГ само на континуалним променљивим. Једноставно је моделу додавати променљиве фактора. Променљиву ам додате у свој модел. Важно је бити сигуран да је променљива ниво фактора, а не континуирана.
df <- mtcars % > %mutate(cyl = factor(cyl),vs = factor(vs),am = factor(am),gear = factor(gear),carb = factor(carb))summary(lm(model, df))
Излаз:
#### Call:## lm(formula = model, data = df)#### Residuals:## Min 1Q Median 3Q Max## -3.5087 -1.3584 -0.0948 0.7745 4.6251#### Coefficients:## Estimate Std. Error t value Pr(>|t|)## (Intercept) 23.87913 20.06582 1.190 0.2525## cyl6 -2.64870 3.04089 -0.871 0.3975## cyl8 -0.33616 7.15954 -0.047 0.9632## disp 0.03555 0.03190 1.114 0.2827## hp -0.07051 0.03943 -1.788 0.0939 .## drat 1.18283 2.48348 0.476 0.6407## wt -4.52978 2.53875 -1.784 0.0946 .## qsec 0.36784 0.93540 0.393 0.6997## vs1 1.93085 2.87126 0.672 0.5115## am1 1.21212 3.21355 0.377 0.7113## gear4 1.11435 3.79952 0.293 0.7733## gear5 2.52840 3.73636 0.677 0.5089## carb2 -0.97935 2.31797 -0.423 0.6787## carb3 2.99964 4.29355 0.699 0.4955## carb4 1.09142 4.44962 0.245 0.8096## carb6 4.47757 6.38406 0.701 0.4938## carb8 7.25041 8.36057 0.867 0.3995## ---## Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1#### Residual standard error: 2.833 on 15 degrees of freedom## Multiple R-squared: 0.8931, Adjusted R-squared: 0.779## F-statistic: 7.83 on 16 and 15 DF, p-value: 0.000124
Р користи први ниво фактора као основну групу. Морате упоредити коефицијенте друге групе са основном групом.
Постепена регресија
Последњи део овог водича бави се алгоритмом степенасте регресије . Сврха овог алгоритма је додавање и уклањање потенцијалних кандидата у моделима и задржавање оних који имају значајан утицај на зависну променљиву. Овај алгоритам је значајан када скуп података садржи велику листу предиктора. Не морате ручно додавати и уклањати независне променљиве. Поступна регресија је направљена тако да одабере најбоље кандидате који одговарају моделу.
Да видимо на делу како то функционише. Скуп података мтцарс користите са континуираним променљивим само за педагошку илустрацију. Пре него што започнете анализу, добро је утврдити разлике између података помоћу корелационе матрице. ГГалли библиотека је продужетак ггплот2.
Библиотека укључује различите функције за приказ збирних статистика као што су корелација и дистрибуција свих променљивих у матрици. Користићемо функцију ггсцатмат, али можете се обратити вињети за више информација о ГГалли библиотеци.
Основна синтакса за ггсцатмат () је:
ggscatmat(df, columns = 1:ncol(df), corMethod = "pearson")arguments:-df: A matrix of continuous variables-columns: Pick up the columns to use in the function. By default, all columns are used-corMethod: Define the function to compute the correlation between variable. By default, the algorithm uses the Pearson formula
Прикажете корелацију за све ваше променљиве и одлучујете која ће бити најбољи кандидати за први корак степенасте регресије. Постоје неке јаке корелације између ваших променљивих и зависне променљиве, мпг.
library(GGally)df <- mtcars % > %select(-c(am, vs, cyl, gear, carb))ggscatmat(df, columns = 1: ncol(df))
Излаз:
Постепена регресија
Избор променљивих је важан део уклапања у модел. Поступна регресија ће аутоматски извршити поступак претраживања. Да бисте процијенили колико могућих избора постоји у скупу података, израчунајте с к је број предиктора. Количина могућности расте са бројем независних променљивих. Због тога треба да имате аутоматску претрагу.
Морате да инсталирате олсрр пакет из ЦРАН-а. Пакет још увек није доступан у Анацонди. Стога га инсталирате директно из командне линије:
install.packages("olsrr")
Можете да нацртате све подскупове могућности са критеријумима за уклапање (тј. Р-квадрат, прилагођени Р-квадрат, Баиесов критеријум). Модел са најнижим АИЦ критеријумима биће коначни модел.
library(olsrr)model <- mpg~.fit <- lm(model, df)test <- ols_all_subset(fit)plot(test)
Објашњење кода
- мпг ~ .: Конструирајте модел за процену
- лм (модел, дф): Покрените ОЛС модел
- олс_алл_субсет (фит): Конструирајте графиконе са релевантним статистичким информацијама
- заплет (тест): Уцртајте графиконе
Излаз:
Модели линеарне регресије користе т-тест за процену статистичког утицаја независне променљиве на зависну променљиву. Истраживачи су поставили максимални праг од 10 процената, а ниже вредности указују на јачу статистичку везу. Стратегија степенасте регресије изграђена је око овог теста за додавање и уклањање потенцијалних кандидата. Алгоритам ради на следећи начин:
- Корак 1: Повратите сваки предиктор на и засебно. Наиме, регресирајте к_1 на и, к_2 на и до к_н. Спремите п-вредност и задржите регресор са п-вредношћу нижом од дефинисаног прага (0,1 подразумевано). Предиктори са значајем нижим од прага биће додати коначном моделу. Ако ниједна променљива нема п-вредност нижу од улазног прага, алгоритам се зауставља и имате коначни модел само са константом.
- Корак 2: Користите предиктор са најнижом п-вредношћу и додајте засебно једну променљиву. Регресирате константу, најбољи предиктор првог и трећег променљивог. Постепеном моделу додајете нове предикторе чија је вредност нижа од улазног прага. Ако ниједна променљива нема п-вредност нижу од 0,1, алгоритам се зауставља и имате коначни модел са само једним предиктором. Регресирате степенасти модел да бисте проверили значај најбољих предиктора у кораку 1. Ако је већи од прага уклањања, задржаћете га у степенастом моделу. У супротном, то искључујете.
- Корак 3: Копирате корак 2 на новом најбољем степенастом моделу. Алгоритам додаје предикторе у степенасти модел на основу уноса вредности и искључује предиктор из степенастог модела ако не задовољава праг за изузеће.
- Алгоритам се наставља све док ниједна променљива не може бити додата или изузета.
Алгоритам можете извести функцијом олс_степвисе () из пакета олсрр.
ols_stepwise(fit, pent = 0.1, prem = 0.3, details = FALSE)arguments:
-fit: Model to fit. Need to use `lm()`before to run `ols_stepwise()-pent: Threshold of the p-value used to enter a variable into the stepwise model. By default, 0.1-prem: Threshold of the p-value used to exclude a variable into the stepwise model. By default, 0.3-details: Print the details of each step
Пре тога ћемо вам показати кораке алгоритма. Испод је табела са зависним и независним променљивим:
Зависна варијабла |
Независне варијабле |
---|---|
мпг |
дисп |
КС |
|
драт |
|
вт |
|
ксец |
Почетак
За почетак алгоритам започиње покретањем модела на свакој независној променљивој засебно. Табела приказује п-вредност за сваки модел.
## [[1]]## (Intercept) disp## 3.576586e-21 9.380327e-10#### [[2]]## (Intercept) hp## 6.642736e-18 1.787835e-07#### [[3]]## (Intercept) drat## 0.1796390847 0.0000177624#### [[4]]## (Intercept) wt## 8.241799e-19 1.293959e-10#### [[5]## (Intercept) qsec## 0.61385436 0.01708199
Да би ушао у модел, алгоритам задржава променљиву са најмањом п-вредношћу. Из горњег излаза је теж
Корак 1
У првом кораку алгоритам самостално покреће мпг на вт и остале променљиве.
## [[1]]## (Intercept) wt disp## 4.910746e-16 7.430725e-03 6.361981e-02#### [[2]]## (Intercept) wt hp## 2.565459e-20 1.119647e-06 1.451229e-03#### [[3]]## (Intercept) wt drat## 2.737824e-04 1.589075e-06 3.308544e-01#### [[4]]## (Intercept) wt qsec## 7.650466e-04 2.518948e-11 1.499883e-03
Свака променљива је потенцијални кандидат за улазак у коначни модел. Међутим, алгоритам задржава само променљиву са нижом п-вредношћу. Испоставило се да хп има незнатно нижу п-вредност од ксец. Стога хп улази у коначни модел
Корак 2
Алгоритам понавља први корак, али овог пута са две независне променљиве у коначном моделу.
## [[1]]## (Intercept) wt hp disp## 1.161936e-16 1.330991e-03 1.097103e-02 9.285070e-01#### [[2]]## (Intercept) wt hp drat## 5.133678e-05 3.642961e-04 1.178415e-03 1.987554e-01#### [[3]]## (Intercept) wt hp qsec## 2.784556e-03 3.217222e-06 2.441762e-01 2.546284e-01
Ниједна од променљивих које су ушле у коначни модел нема п-вредност довољно ниску. Алгоритам се овде зауставља; имамо коначни модел:
#### Call:## lm(formula = mpg ~ wt + hp, data = df)#### Residuals:## Min 1Q Median 3Q Max## -3.941 -1.600 -0.182 1.050 5.854#### Coefficients:## Estimate Std. Error t value Pr(>|t|)## (Intercept) 37.22727 1.59879 23.285 < 2e-16 ***## wt -3.87783 0.63273 -6.129 1.12e-06 ***## hp -0.03177 0.00903 -3.519 0.00145 **## ---## Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1#### Residual standard error: 2.593 on 29 degrees of freedom## Multiple R-squared: 0.8268, Adjusted R-squared: 0.8148## F-statistic: 69.21 on 2 and 29 DF, p-value: 9.109e-12
За упоређивање резултата можете користити функцију олс_степвисе ().
stp_s <-ols_stepwise(fit, details=TRUE)
Излаз:
Алгоритам проналази решење након 2 корака и враћа исти излаз као и раније.
На крају, можете рећи да су модели објасњени са две променљиве и пресретањем. Миља по галону је у негативној корелацији са бруто коњском снагом и тежином
## You are selecting variables based on p value… ## 1 variable(s) added… .## Variable Selection Procedure## Dependent Variable: mpg#### Stepwise Selection: Step 1#### Variable wt Entered#### Model Summary## --------------------------------------------------------------## R 0.868 RMSE 3.046## R-Squared 0.753 Coef. Var 15.161## Adj. R-Squared 0.745 MSE 9.277## Pred R-Squared 0.709 MAE 2.341## --------------------------------------------------------------## RMSE: Root Mean Square Error## MSE: Mean Square Error## MAE: Mean Absolute Error## ANOVA## --------------------------------------------------------------------## Sum of## Squares DF Mean Square F Sig.## --------------------------------------------------------------------## Regression 847.725 1 847.725 91.375 0.0000## Residual 278.322 30 9.277## Total 1126.047 31## --------------------------------------------------------------------#### Parameter Estimates## ----------------------------------------------------------------------------------------## model Beta Std. Error Std. Beta t Sig lower upper## ----------------------------------------------------------------------------------------## (Intercept) 37.285 1.878 19.858 0.000 33.450 41.120## wt -5.344 0.559 -0.868 -9.559 0.000 -6.486 -4.203## ----------------------------------------------------------------------------------------## 1 variable(s) added… ## Stepwise Selection: Step 2#### Variable hp Entered#### Model Summary## --------------------------------------------------------------## R 0.909 RMSE 2.593## R-Squared 0.827 Coef. Var 12.909## Adj. R-Squared 0.815 MSE 6.726## Pred R-Squared 0.781 MAE 1.901## --------------------------------------------------------------## RMSE: Root Mean Square Error## MSE: Mean Square Error## MAE: Mean Absolute Error## ANOVA## --------------------------------------------------------------------## Sum of## Squares DF Mean Square F Sig.## --------------------------------------------------------------------## Regression 930.999 2 465.500 69.211 0.0000## Residual 195.048 29 6.726## Total 1126.047 31## --------------------------------------------------------------------#### Parameter Estimates## ----------------------------------------------------------------------------------------## model Beta Std. Error Std. Beta t Sig lower upper## ----------------------------------------------------------------------------------------## (Intercept) 37.227 1.599 23.285 0.000 33.957 40.497## wt -3.878 0.633 -0.630 -6.129 0.000 -5.172 -2.584## hp -0.032 0.009 -0.361 -3.519 0.001 -0.050 -0.013## ----------------------------------------------------------------------------------------## No more variables to be added or removed.
Машинско учење
Машинско учење постаје широко распрострањено међу научницима података и примењује се у стотинама производа које свакодневно користите. Једна од првих МЛ апликација била је филтер нежељене поште .
Следе друге примене машинског учења -
- Идентификација нежељених нежељених порука у е-пошти
- Сегментација понашања купаца за циљано оглашавање
- Смањење лажних трансакција кредитним картицама
- Оптимизација употребе енергије у кући и пословној згради
- Препознавање лица
Учење под надзором
У учењу под надзором , подаци о обуци које уносите у алгоритам садрже ознаку.
Класификација је вероватно најчешће коришћена техника учења под надзором. Један од првих задатака класификације који су се бавили био је филтер за нежељену пошту. Циљ учења је предвидети да ли је нека е-пошта класификована као нежељена пошта или шунка (добра е-пошта). Уређај, након корака обуке, може да открије класу е-поште.
Регресије се обично користе у пољу машинског учења за предвиђање континуиране вредности. Задатак регресије може предвидети вредност зависне променљиве на основу скупа независних променљивих (званих и предиктори или регресори). На пример, линеарне регресије могу предвидети цену деоница, временску прогнозу, продају и тако даље.
Ево листе неких основних алгоритама учења под надзором.
- Линеарна регресија
- Логистичка регресија
- Најближи суседи
- Подржава векторски строј (СВМ)
- Стабла одлучивања и случајна шума
- Неуронске мреже
Учење без надзора
У учењу без надзора , подаци о обуци нису обележени. Систем покушава да учи без референце. Испод је листа алгоритама учења без надзора.
- К-значи
- Хијерархијска анализа кластера
- Максимизација очекивања
- Визуализација и смањење димензионалности
- Главни анализа компоненти
- Кернел ПЦА
- Локално-линеарно уграђивање
Резиме
Уобичајена регресија најмање квадрата може се резимирати у доњој табели:
Библиотека |
објективан |
Функција |
Аргументи |
---|---|---|---|
база |
Израчунати линеарну регресију |
лм () |
формула, подаци |
база |
Резимирај модел |
резимирати() |
фит |
база |
Коефицијенти екстракта |
лм () $ коефицијент | |
база |
Издвојите остатке |
лм () $ остатака | |
база |
Тачно уклопљена вредност |
лм () $ уклопљене.вредности | |
олсрр |
Извршите степенасту регресију |
олс_степвисе () |
фит, залога = 0,1, прем = 0,3, детаљи = ФАЛСЕ |
Напомена : Не заборавите да категоричку променљиву трансформишете у фактор пре него што се уклопи у модел.