선형 모델
입력 특성의 가중치 합과 편향(절편)이라는 상수를 더해 예측 생성
선형 회귀 모델의 예측

벡터 형태로 더 간단하게 표현 가능

사이킷런에서 선형 회귀는 LinearRegression을 통해 수행
모델 훈련
MSE 또는 RMSE를 최소화하는 파라미터(θ)를 찾음비용 함수를 최소화하는 θ값을 찾기 위한 해석적 방법

LinearRegression 클래스의 동작 원리
scipy.linalg.lstsq() 함수 기반
np.linalg.pinv()을 사용해서 유사역행렬을 직접 계산할 수 있음알고리즘에 따라 계산 복잡도가 다름
⇒ 특성 수가 늘어나면 계산 시간 또한 증가

주요 파라미터 ⇒ **스텝(step)**의 크기
학습률 하이퍼 파라미터로 결정됨


경사 하강법의 두 가지 문제점

비용 함수는 대부분 그릇 모양을 하고 있음
특성들의 스케일이 매우 다르면 길쭉한 모양일 수 있음
⇒ 경사 하강법 사용 시 반드시 모든 특성이 같은 스케일을 갖도록 해야 함

▲ 왼쪽: 경사 하강법 알고리즘이 최솟값으로 곧장 진행하고 있음 오른쪽: 처음엔 전역 최솟값의 방향에 거의 직각으로 향하다가 평평한 골짜기를 길게 돌아서 나감