Activation Function은닉층(Hidden Layer)과 출력층(Output Layer)의 뉴런에서 출력값을 결정하는 함수비선형 함수(Nonlinear function)여야 함Step $$ H(x) = \begin{cases} 0 & \text{if } x Hyperbolic Tangent $$ \tanh(x) = \frac{e^x - e^{-x}}{e^x + e^{-x}} $$ Sigmoid $$ \sigma(x) = \frac{1}{1 + e^{-x}} $$ Softmax $$ \text{softmax}(x_i) = \frac{e^{x_i}}{\sum_{j} e^{x_j}} = \frac{e^{x_i - \max(x)}}{\sum_{j} e^{x_j - \max(x)}} $$ ..
단층 퍼셉트론 (Single-Layer Perceptron)퍼셉트론(Perceptron)은 단층 신경망을 통해 간단한 이진 분류 문제를 해결하는 알고리즘입력 데이터가 특정 클래스에 속하는지 아닌지를 판별하는 데 사용다수의 신호를 입력으로 받아 하나의 신호를 출력하며, 0이나 1의 두 가지 값을 가짐입력값 (Input): 입력 노드에 들어오는 데이터 (x1, x2, x3, …)가중치 (Weight): 입력에 각각 곱해지는 값 (w1, w2, w3, …)바이어스 (Bias): 퍼셉트론의 활성화 함수를 조정해주는 상수 (b)활성화 함수 (Activation Function):가중치와 입력값의 합이 특정 임계값을 넘는지 판단하여 출력값을 결정단순 퍼셉트론에서는 주로 계단 함수(step function)가 사용되..