-
[Fundamentals]단층 퍼셉트론(Single-Layer Perceptron)Engineering/AI 2021. 4. 15. 22:22
1. 단층 퍼셉트론 구조
단층 퍼셉트론은 Figure 1처럼 일련의 퍼셉트론을 한 줄로 배치해서 입력 벡터 하나로부터 출력 벡터 하나를 단번에 얻어내는 신경망 구조이다. 이때 입력 벡터로부터 출력 벡터를 얻으려면 출력 벡터의 크기(출력 벡터가 담고 있어야 할 스칼라 성분의 수 만큼의 퍼셉트론)이 필요하다. 그림에서 $P_1, P_2, P_3$은 크기 3의 출력 벡터를 만들어 내기 위한 퍼셉트론을 생성하며 이들 퍼셉트론 사이에는 어떤 연결도 되지 않았기 때문에 영향이 없다. 따라서 자마다의 가중치 벡터와 편향 값을 이용하여 입력 벡터 x로부터 출력 벡터 y를 도출해내는 것이다.
2. 계층(Layer)
딥러닝에서는 퍼셉트론 열을 계층이라고 한다. 입력하는 벡터가 모여있는 층을 입력 계층, 출력되는 벡터가 생성되는 계층을 출력 계층이라고 한다. 이 때 입력 계층과 출력 계층 사이에 존재하는 모든 계층을 은닉 계층(Hidden Layer)이라고 부른다. 다층 퍼셉트론과 단층 퍼셉트론은 아래와 같이 구분지을 수 있다.
- 다층 퍼셉트론(Multiple-Layer Perceptron) : 입력 계층 + 1개 이상의 은닉 계층 + 출력 계층
- 단층 퍼셉트론(Single-Layer Perceptron) : 입력 계층 + 출력 계층
후에 다층 퍼셉트론(MLP)은 인공신경망(Artificial Neural Network)과 비슷한 의미로써 사용되는데, 위키백과를 참고하면 인공 신경망에 포함된 개념으로써 다층 퍼셉트론을 구분하고 있다. 여기서 다층 퍼셉트론은 순방향 신경망(Feedforward Neural Network)과도 비슷한 의미로 사용되며, 은닉 계층이 2개 이상 사용된 다층 퍼셉트론을 심층 신경망(Deep Neural Network)라고 부른다.
- Reference
Figure 1 : Likelion k-digital training 2nd
반응형'Engineering > AI' 카테고리의 다른 글
[Regression]확률적 경사하강법(Stochastic Gradient Descent)과 미니배치 경사하강법(Mini-Batch Gradient Descent) (0) 2021.04.17 [Regression]회귀(Regression)와 경사하강법(Gradient Descent) (0) 2021.04.17 [Regression]최소제곱법(Least-Square Method)과 목적함수(Objective Function) (0) 2021.04.17 [Fundamentals]파라미터(Parameter)와 하이퍼파라미터(Hyperparameter) (0) 2021.04.15 [Fundamentals]Fundamentals of Artificial Intelligence (0) 2021.04.15