기계 학습의 등장 회귀: 기계 학습의 회귀 이해

게시 됨: 2020-12-21

선형, 물류, 능선 및 올가미 회귀와 같은 기계 학습 프로그램을 훈련하는 데 사용되는 다양한 유형의 회귀 모델(알고리즘)이 있습니다. 이 중 선형 회귀 모델은 가장 기본적이고 가장 널리 사용되는 회귀 모델입니다. 기계 학습의 등장 회귀는 선형 회귀를 기반으로 합니다. 따라서 등장 회귀로 넘어가기 전에 먼저 기계 학습의 선형 회귀를 살펴보겠습니다.

목차

기계 학습의 선형 회귀 이해하기

원천

선형 회귀 모델은 종속 변수와 독립 변수 간의 관계를 결정하는 데 사용됩니다. 두 변수 사이에 가장 적합한 선으로 표시되는 선형 관계를 가정합니다. 방정식 y= mx + c + e는 다음과 같은 선형 회귀 모델을 나타내는 데 사용됩니다.

m = 선의 기울기

c = 가로채기

e= 모델의 오류

선형 회귀 모델은 특이치에 민감하고 유연성이 매우 높기 때문에 큰 크기의 데이터에는 사용할 수 없습니다. 이 모델이 큰 크기의 테스트 데이터에 배포되면 선의 기울기 외부에 있는 여러 인스턴스가 있으며 이를 잔차 오류라고도 합니다. L1 및 L2 정규화와 같은 방법을 사용하여 선 기울기의 기울기를 줄일 수 있지만 유용하지는 않습니다.

필독: 기계 학습 모델 설명

이것은 기계 학습 알고리즘의 정확도를 제한합니다. 이 한계를 극복하기 위해 기계 학습에서 등장성 회귀 의 새로운 접근 방식 이 채택되고 있습니다. 현재 널리 보급되지는 않았지만 이 접근 방식은 매우 강력하며 기계 학습 프로그램의 정확도를 개선하는 데 도움이 될 수 있습니다.

기계 학습의 등장 회귀 이해하기

기술적인 내용을 다루기 전에 기계 학습의 등장 회귀(isotonic regression) 를 일반인의 관점에서 이해해 보겠습니다.

'isotonic'이라는 단어를 해독하여 시작합시다. 'isotonic'이라는 단어는 'iso'와 'tonic'의 두 부분으로 구성된 그리스어 어원을 가지고 있습니다. 여기서 'iso'는 같음을 의미하고 'tonic'은 스트레칭을 의미합니다. 따라서 기계 학습 알고리즘의 관점에서 등장 회귀는 선형 회귀 선을 따라 동일한 스트레칭으로 이해될 수 있습니다. 선형 회귀 모델 위에서 작동합니다.

더 잘 이해하는 데 도움이 될 등장성 회귀와 관련된 다양한 측면을 살펴보겠습니다.

1. 조각별 선형 모델

앞서 언급한 바와 같이 선형 회귀선의 기울기의 급경사를 최소화해야 하며 이를 위해 L1 및 L2 정규화 방법이 사용됩니다. 등장 회귀 접근 방식은 임계값을 생성하고 종단 간 연결된 각 섹션에 대한 선형 선을 가짐으로써 그래프를 조각별 섹션으로 나누는 것과 완전히 다릅니다.

예를 들어, 위의 이미지에서 X축은 10의 동일한 간격으로 다양한 더 작은 섹션으로 더 나눌 수 있습니다. 이러한 각 간격은 bin1, bin2, bin3, bin4 등과 같이 bin이라고 부를 수 있습니다. 켜짐. 따라서 선형 방정식은 이제 다음과 같이 됩니다.

y= m1x1 + m2x2 + m3x3 +….. mnxn + c, 여기서:

m1, m2, m3… .mn = 개별 빈에 대한 선의 기울기.

이는 오류를 최소화하고 최적선의 기울기를 줄이는 데 도움이 됩니다.

2. 음이 아닌 기울기

등장 함수는 단조 함수이므로 솔루션의 기울기는 항상 음이 아닙니다. 한 임계값에서 다른 임계값으로 이동할 때 기울기의 감소는 허용되지 않습니다. 임계값의 가장 낮은 지점은 항상 이전 임계값의 가장 높은 지점보다 커야 합니다.

예를 들어, x1, x2, x3, x4…xn이 빈 b1, b2, b3, b4…bn의 기울기에 대해 고려된 데이터 포인트의 값이라고 가정합니다. 그런 다음, 규칙에 따라 기울기는 음수가 아니어야 합니다. 따라서,

f(x1) <= f(x2) <= f(x3) <= f(x4)...<= f(xn).

따라서 우리는 더 낮은 지점(f(x1)이 가장 낮은 지점)에서 시작하여 점차적으로 각 임계값에 따라 더 높은 지점으로 이동합니다. 임계값의 기울기는 0(수평선)이 될 수 있지만 음수(하향 기울기)가 될 수 없습니다.

읽기: 초보자를 위한 기계 학습 프로젝트 아이디어

기계 학습 모델에서 등장 회귀를 사용할 때의 이점

등장 회귀를 사용하면 아래에서 설명하는 두 가지 주요 이점이 있습니다.

1. 다차원적 스케일링

등장 회귀는 입력 변수가 여러 개인 경우 매우 유용합니다. 우리는 각각의 모든 차원을 각각의 모든 함수로 검사하고 선형 방식으로 보간할 수 있습니다. 이것은 손쉬운 다차원 스케일링을 허용합니다.

2. 확률 값의 보정

로지스틱 회귀에서 변수 x가 있다고 가정하고 변수의 확률 값이 증가하지 않는 확률 p(1)를 나타냅니다. 그러나 현실에서는 확률 값이 현실 세계에서 더 높습니다. 이러한 경우 보정 목적으로 또는 그러한 변수의 확률을 높이기 위해 등장 회귀 분석이 매우 유용합니다.

확인: 기계 학습 인터뷰 질문

기계 학습 모델에서 등장 회귀를 사용할 때의 단점

등장 회귀를 사용하는 데에는 한 가지 주요 단점이 있습니다. 이에 대해서는 아래에서 설명합니다.

과적합의 위험

등장성 제약 조건 및 예측자 기능의 수가 증가함에 따라 하이퍼파라미터(K)의 과적합의 상당한 위험이 있지만 교차 검증 워크플로 방법을 사용하여 문제를 관리할 수 있습니다.

결론

현재 3개의 주요 언어에만 Isotonic 회귀가 포함된 오픈 소스 패키지가 있습니다. 그러나 기계 학습 문제에서 등장 회귀를 사용하는 것의 이점을 살펴보면 등장 회귀 패키지의 범위, 사용 및 가용성은 미래에 확실히 증가할 것입니다.

등장 회귀가 주로 선형 회귀와 L1 및 L2 정규화 방법을 대체하는 것을 볼 수 있습니다. 따라서 미래에 대비하려면 지금부터 등장 회귀에 대한 최신 정보와 지식을 유지해야 합니다!

기계 학습 또는 기타 기계 학습 관련 개념의 등장 회귀에 대해 자세히 알아보려면 IIIT-B 및 upGrad의 기계 학습 및 AI PG 디플로마를 확인하세요 . . 이 과정은 450시간 이상의 학습, 30개 이상의 사례 연구 및 과제로 구성되어 있으며 학생들이 기계 학습 및 AI와 관련된 주문형 기술을 배울 수 있도록 도와줍니다.

머신 러닝에서 회귀가 중요한 이유는 무엇입니까?

지도 학습 알고리즘의 일종인 회귀 분석은 머신 러닝의 기본 개념 중 하나입니다. 회귀는 한 변수의 값이 다른 변수에 미치는 영향을 추정함으로써 서로 다른 변수 간의 관계를 설정하는 데 사용됩니다. 기계 학습 분야에서 회귀는 하나 또는 여러 예측 변수의 지속적으로 변화하는 값을 기반으로 특정 대상 변수의 결과를 추정하는 데 도움이 되는 복잡한 수학적 알고리즘으로 구성됩니다. 가장 널리 사용되는 회귀 분석은 예측 및 예측에 사용하기 쉽기 때문에 선형 회귀입니다.

머신 러닝은 데이터 과학과 동일합니까?

오늘날 데이터 과학 및 기계 학습과 같은 유행어가 주류가 되면서 많은 사람들이 실제로 의미하는 바에 대해 혼란스러워합니다. 여기서 빨리 설명하도록 합시다. 데이터 과학은 조직에서 생성된 방대한 양의 데이터에 대한 연구를 말합니다. 데이터 과학자는 다양한 기술을 사용하여 기업이 최대의 이점을 얻고 경쟁에서 앞서 나갈 수 있도록 이 데이터에서 귀중한 통찰력을 드러냅니다. 머신 러닝은 데이터 과학과 다릅니다. 데이터 과학 기술을 사용하여 데이터에 대해 학습한 다음 기계를 훈련하는 데 사용됩니다. 기계 학습은 복잡한 수학적 모델을 사용하여 컴퓨터가 사람의 개입 없이 학습할 수 있도록 합니다.

머신 러닝은 딥 러닝과 동일합니까?

기계 학습은 인공 지능의 하위 집합입니다. 데이터를 분석하고 학습한 다음 이러한 학습을 ​​적용하여 컴퓨터나 기계가 인간의 명시적인 입력 없이 결정을 내리는 데 도움이 되는 알고리즘이나 모델을 사용합니다. 반면에 딥 러닝은 머신 러닝의 하위 분야입니다. 알고리즘이나 수학적 모델을 계층으로 구성하여 인간 두뇌의 구조와 유사한 인공 신경망을 개발하는 데 사용됩니다. 이 신경망은 자체적으로 학습하고 자체 논리 프레임워크와 데이터 분석을 사용하여 지능적인 결정을 내릴 수 있습니다.