728x90
다층 퍼셉트론 MLP(Multi-Layer Perceptron) = 인공신경망(ANN)
퍼셉트론의 한계로인해 인공신경망에 대한 인기가 사그라질 때, 몇몇 연구자들은 인공신경망의 가능성을 믿고 연구를 지속하였고 퍼셉트론을 여러층 쌓아 올린 다층 퍼셉트론구조를 제안하였다.
다층 퍼셉트론을 이용하면 선형 분리가 불가능한 문제도 해결할 수 있다는 사실이 밝혀지면서 다시 인공신경망 연구의 돌파구를 마련하게 되었다.
우리가 인공신경망(ANN)이라는 용어를 사용할 때 일반적으로 이는 다층 퍼셉트론을 의미한다. 다층 퍼셉트론은 입력층(Input Layer)과 은닉층(Hidden Layer), 출력층(Output Layer)으로 구성되어 있다. 은닉층은 데이터의 입출력 과정에서 직접적으로 보이진 않지만 숨겨진 특징을 학습하는 역할을 한다.
다층 퍼셉트론 구조에서는 분류기가 비선형적 특징을 학습할 수 있도록 만드는 것이 목적이다. 그렇기에 활성 함수로 계단 함수가 아닌 비선형 함수인 시그모이드(Sigmoid)와 쌍곡 탄젠트(Tangent Hyperbolic) 혹은 ReLU를 사용한다. 활성 함수의 출력 결과인 y를 활성값이라고 부른다.
과거에는 sigmoid함수를 많이 사용했지만, 최근에는 ReLU가 딥러닝 학습에 더 적합하다고 알려져서 ReLU를 많이 사용하는 추세이다.
'AI, 딥러닝, 머신러닝' 카테고리의 다른 글
오토인코더(Autoencoder) (0) | 2023.02.09 |
---|---|
컨볼루션 신경망(CNN) (0) | 2023.02.08 |
인공 신경망 (1) (0) | 2023.02.06 |
선형 회귀(Linear Regression) 알고리즘 (0) | 2023.02.05 |
머신러닝 알고리즘의 3가지 분류 (0) | 2023.01.28 |