-
[Fundamentals]Fundamentals of Artificial IntelligenceEngineering/AI 2021. 4. 15. 20:57
신경망을 본격적으로 구현하기 전에 인공지능의 간단한 기초적인 지식을 살펴보기로 한다.
1. 인공지능, 머신러닝, 딥러닝(Artificial Intelligence, Machine Learning, Deep Learning)
Figure 1에서 볼 수 있는 것처럼 큰 개념은 인공지능이다. 인공 지능은 보통 '지식 기반 접근'과 '데이터 기반 접근'으로 나뉜다. 우선, '지식 기반 접근'의 경우 문제 영역의 지식을 기호로 풀어내는 방식이다. 그러나 이런 지식 같은 경우 전문가마다 추상적이고 막연한 전문 지식을 표현하기에는 무리가 있다고 판단했다.
따라서 머신러닝으로 통칭되는 '데이터 기반 접근'을 통해 프로그램이 직접 데이터를 분석하여 숨어있는 규칙이나 패턴을 찾아내어 문제를 해결하는 방식이 주를 이루게 되었다. 따라서 머신러닝을 제대로 적용하려면 학습 알고리즘, 대량의 데이터, 막대한 컴퓨팅 파워가 필요하다고 한다.
마지막으로 딥러닝은 머신러닝의 한 학습 방법이라고 할 수 있다. 동물의 신경세포를 흉내낸 퍼셉트론을 단위로 삼아 구성한 신경망 구조를 이용해 학습을 수행하고 문제를 풀어내는 방식이라고 할 수 있다.
2. 뉴런과 퍼셉트론(Neurans, Perceptron)
1957년 미국의 로젠블랫(Frank Rosenblatt)은 동물의 신경세포인 뉴런을 모델로 퍼셉트론 구조를 처음 개발했다. 인공 신경망을 이루는 기본적인 구조는 Figure 2의 왼쪽과 같다. 각 입력과 가중치의 곱이 편향과 합산되어 비선형함수에 대입하는 것이 바로 퍼셉트론을 출력하는 과정이다. 이것을 수식으로 적어보면 아래와 같다.
$y = f(\sum_{k=1}^{n} {(x_k\times w_k)} + b)$
이렇게 간단한 퍼셉트론이 하나하나 모여 쓸모있는 일을 하려면 사람의 뇌가 1000억 개가 넘는 뉴런으로 구성되듯 많은 수의 퍼셉트론을 활용해야 한다. 이와 함께 높은 성능을 내려면 풍부하고 질 좋은 데이터, 적절한 모델을 쌓는 노력, 하이퍼 파라미터 값을 적절하게 조정하는 반복이 필요하다.
- Reference
Figure 1 : blog.lgcns.com/2212?category=854507
Figure 2 : Likelion k-digital training 2nd
반응형'Engineering > AI' 카테고리의 다른 글
[Regression]확률적 경사하강법(Stochastic Gradient Descent)과 미니배치 경사하강법(Mini-Batch Gradient Descent) (0) 2021.04.17 [Regression]회귀(Regression)와 경사하강법(Gradient Descent) (0) 2021.04.17 [Regression]최소제곱법(Least-Square Method)과 목적함수(Objective Function) (0) 2021.04.17 [Fundamentals]파라미터(Parameter)와 하이퍼파라미터(Hyperparameter) (0) 2021.04.15 [Fundamentals]단층 퍼셉트론(Single-Layer Perceptron) (0) 2021.04.15