다층 퍼셉트론 예제

마지막으로 모델 구조의 이미지를 직접 만들 수 있습니다. 예: 각 데이터가 처리된 후 예상 결과와 비교하여 출력의 오류 양에 따라 연결 가중치를 변경하여 지각에서 학습이 수행됩니다. 이것은 감독 된 학습의 예이며, 선형 지각에서 최소 평균 제곱 알고리즘의 일반화 인 역전파를 통해 수행됩니다. 손실 인수로 컴파일 함수에 사용할 손실 함수의 이름을 지정할 수 있습니다. 몇 가지 일반적인 예는 다음과 같습니다: 피드포워드 네트워크의 두 가지 예는 다음과 같습니다: 위의 XOR 예제에서, 1숨겨진 레이어에 숨겨진 두 개의 뉴런을 추가하면 문제를 다른 공간으로 바꿀 수 있으며, 이는 마술처럼 우리를 위한 방법을 만들었습니다. XOR을 능선으로 분류합니다. 따라서 숨겨진 계층은 신경망이 문제 나 패턴을 쉽게 분류 할 수있는 방식으로 문제를 왜곡합니다. 이제 우리는 고전적인 교과서 예제를 사용합니다: 손으로 쓴 숫자의 인식, 직관적으로 숨겨진 레이어가 무엇을 이해하는 데 도움이. 출력 레이어에서 활성화 함수의 선택은 모델링하는 문제 유형에 의해 크게 제한됩니다. 예를 들어 다중 계층 지각론이 주어진 예제(학습 데이터)에서 학습하고 새 데이터 포인트를 지정하여 정보에 입각한 예측을 할 수 있는 이진 분류 문제입니다. 우리는 다층 지각론이 이러한 관계를 배우는 방법을 아래에 볼 수 있습니다. 네트워크의 가중치는 각 교육 예제에 대해 계산된 오류에서 업데이트할 수 있으며 이를 온라인 학습이라고 합니다.

그것은 신속 하지만 또한 네트워크에 혼란 스러운 변경 될 수 있습니다. 최적화 개체를 만들고 최적화 인수를 통해 컴파일 함수에 전달할 수 있습니다. 이렇게 하면 학습 속도와 같은 자체 인수로 최적화 절차를 구성할 수 있습니다. 예를 들어 일반적으로 데이터 집합이 너무 크고 계산 효율성, 일괄 처리 크기 로 인해 업데이트 전에 네트워크가 표시되는 예제 수가 수십 또는 수백 개의 예제와 같이 소수로 줄어듭니다. 피드포워드 신경망의 예는 그림 3에 나와 있다.