매트랩 머신러닝 예제

알고 보니, 기본 기계 학습 이론은 다소 동일합니다. 주요 차이점은 예측 변수 h(x)의 디자인과 비용 함수의 디자인입니다. 우리는 지난 몇 년 동안 기계 학습을 유행어로 보았는데, 그 이유는 응용 프로그램에 의한 높은 양의 데이터 생산, 지난 몇 년 동안의 컴퓨팅 파워 증가 및 더 나은 알고리즘의 개발일 수 있습니다. ML(기계 학습)은 소프트웨어 응용 프로그램이 명시적으로 프로그래밍되지 않고도 결과를 예측하는 데 있어 보다 정확해질 수 있는 알고리즘의 범주입니다. 기계 학습의 기본 전제는 입력 데이터를 수신하고 통계 분석을 사용하여 출력을 예측하는 동시에 새 데이터를 사용할 수 있게 되면 출력을 업데이트할 수 있는 알고리즘을 구축하는 것입니다. 기계 학습은 3가지 유형의 알고리즘으로 분류할 수 있습니다. Arthur Samuel에 따르면 기계 학습 알고리즘을 사용하면 명시적으로 프로그래밍되지 않고도 컴퓨터가 데이터에서 학습하고 스스로 개선할 수 있습니다. 기계 학습 모델은 학습할 데이터의 기본 특성에 대한 가정 집합입니다. 이 모델은 기계 학습 알고리즘이 학습해야 하는 내용을 결정하는 기준으로 사용됩니다. 데이터에 대한 정확한 가정을 하는 좋은 모델은 기계가 좋은 결과를 제공하기 위해 필요하며, 기계 학습 분야의 기본 이론을 다루었지만 물론 표면을 거의 긁지 않았습니다. 차원 감소는 중요한 정보가 여전히 전달되도록 하면서 데이터 집합의 변수 수를 줄이는 데 사용됩니다.

치수 감소는 기능 추출 방법 및 기능 선택 방법을 사용하여 수행할 수 있습니다. 피쳐 선택은 원래 변수의 하위 집합을 선택합니다. 기능 추출은 고차원 공간에서 저차원 공간으로의 데이터 변환을 수행합니다. 예: PCA 알고리즘은 기능 추출 방식입니다. 예: 우유와 설탕을 구매하는 경우 커피 파우더를 구입할 가능성이 높습니다. 이것은 협회 규칙의 형태로 작성 될 수있다 : {우유, 설탕} -> 커피 분말. 연결 규칙은 지원 및 신뢰에 대한 임계값을 초과한 후에 생성됩니다. 오버피팅은 기계 학습 알고리즘을 학습 데이터에 너무 밀접하게 집중하여 새 데이터를 올바르게 처리할 수 있을 만큼 일반화되지 않도록 하는 결과입니다. 이는 기계가 “잘못된 것을 학습”하고 새로운 데이터를 올바르게 해석할 수 없게 되는 예입니다. 기계 학습은 기계가 잘못된 것이 아니라 올바른 것을 배우도록 보장하는 데 수반되는 많은 미묘한 복잡성으로 인해 많은 헌신과 연습을 필요로 합니다.

기계 학습을위한 훌륭한 온라인 과정은 앤드류 Ng의 코스라 과정입니다. 대부분의 감독 학습 응용 프로그램에서 궁극적인 목표는 미세조정된 예측 함수 h(x)(“가설”이라고도 함)를 개발하는 것입니다. “학습”은 정교한 수학적 알고리즘을 사용하여 이 기능을 최적화하여 특정 도메인에 대한 입력 데이터 x(예: 집의 평방 피트)를 정확하게 예측하여 몇 가지 흥미로운 값 h(x)를 정확하게 예측할 수 있도록 합니다(예: 시장 가격 집). 이 기사는 스탠포드 교수 앤드류 Ng 가 그의 자유롭고 개방적인 기계 학습 과정에서 가르친 자료에 크게 그립니다. 이 과정은이 문서에서 논의 된 모든 것을 깊이 다루며 ML 실무자를위한 실용적인 조언을 제공합니다.