Téléphone : 01 64 42 60 45
A+| A-| A
02 0

Publié par  dans 

BoxConstraint — 한 가지 전략은 상자 제약 조건 매개변수의 기하학적 시퀀스를 시도하는 것입니다. 예를 들어 1e-5에서 1e5로 11개의 값을 10배로 가져가십시오. BoxConstraint을 늘리면 지원 벡터 수가 줄어들 수 있지만 교육 시간도 늘어갈 수 있습니다. 커널 함수에 대한 일반 이름을 사용하지 않는 것이 좋습니다. 예를 들어, `시그노이드`가 아닌 `mysigmoid`를 sigmoid 함수라고 합니다. 이중은 표준 이차 프로그래밍 문제입니다. 예를 들어 최적화 도구 상자™ 쿼드프로그 솔버가 이러한 유형의 문제를 해결합니다. 이 예제에서는 관측값 그리드를 통해 SVM 모델의 후방 확률을 예측한 다음 그리드 위에 후방 확률을 플로팅하는 방법을 보여 주습니다. 사후 확률을 플로팅하면 의사 결정 경계가 노출됩니다. PredictorNames 속성은 원래 예측 변수 이름 각각에 대해 하나의 요소를 저장합니다. 예를 들어 세 개의 예측 변수가 있으며 그 중 하나는 세 개의 레벨이 있는 범주형 변수라고 가정합니다. 그런 다음 예측 변수 이름은 예측 변수의 원래 이름을 포함하는 문자 벡터의 1~3개 셀 배열입니다.

기본값이 아닌 값이 있는 최적화 가능한 변수 개체의 벡터를 전달하여 기본이 아닌 매개 변수를 설정합니다. 예: 이 예제에서는 Gaussian 커널 함수를 사용하여 비선형 분류기를 생성하는 방법을 보여 주며 있습니다. 먼저 단위 디스크 내부에 두 차원의 점 클래스와 반지름 1에서 반경 2까지의 annulus의 또 다른 값 클래스를 생성합니다. 그런 다음, 가우시안 방사형 기초 함수 커널을 사용하여 데이터를 기반으로 분류기 생성한다. 기본 선형 분류기는 모델이 원형 대칭이므로 이 문제에 적합하지 않습니다. 상자 제약 조건 매개 변수를 Inf로 설정하여 엄격한 분류를 만들므로 잘못 분류된 교육 지점이 없습니다. 다른 커널 함수는 엄격한 분류를 제공하지 못할 수 있기 때문에 이 엄격한 상자 제약 조건으로 작동하지 않을 수 있습니다. rbf 분류기가 클래스를 구분할 수 있더라도 결과를 과도하게 학습할 수 있습니다. 평균 m 및 분산 I/5를 가진 2-D 정규 분포를 가진 독립적인 랜덤 포인트를 생성합니다.

이 예제에서는 분산 I/50을 사용하여 최적화의 이점을 보다 명확하게 보여 줍니다. 교육을 위해 클래스의 하위 집합을 선택합니다. 예를 들어 Y의 모든 고유한 클래스 이름 집합이 {`a« b« `c`}라고 가정합니다. 클래스 `a`와 `c`만의 관측값으로 모델을 학습하려면 `클래스 이름`, {`a`,`c`}를 지정합니다. 입력 데이터를 테이블 Tbl으로 지정하면 가중치는 숫자 벡터를 포함하는 Tbl의 변수 이름이 될 수 있습니다. 이 경우 가중치를 문자 벡터 또는 문자열 스칼라로 지정해야 합니다. 예를 들어 가중치 벡터 W가 Tbl.W로 저장된 경우 `W`로 지정합니다. 그렇지 않으면 소프트웨어를 W를 포함한 Tbl의 모든 열을 모델을 학습할 때 예측 변수 또는 응답 변수로 처리합니다. Nu를 설정하여 대부분의 학습 예제가 양수 클래스에 있는지 확인하는 것과 점수 함수의 가중치를 최소화하는 것 사이의 절충을 제어합니다. https://www.mathworks.com/matlabcentral/answers/315300-a-simple-svm-example#comment_411231 `OptimizeHyperparameters` 값은 다른 이름-값 쌍 인수를 사용하여 설정한 모든 값을 재정의합니다. 예를 들어 `OptimizeHyperparameters`를 `자동`으로 설정하면 `자동` 값이 적용됩니다. 이 예제에서는 선형 SVM 이진 학습기로 구성된 오류 수정 출력 코드(ECOC) 모델을 학습하여 셰이프가 차지하는 이미지의 사분면을 확인하는 방법을 보여 주며 있습니다.

'.