2026. 4. 23. 20:34ㆍ내일배움캠프 TIL
오늘은 머신러닝과 라이브러리 이해 4챕터를 들었다.
1. 머신러닝 vs 딥러닝
둘 다 데이터로부터 가중치를 학습하여 패턴을 인식하는 AI의 하위 분야라는 공통점이 있다. 차이점은 머신러닝이 데이터의 통계적 관계를 찾아 예측하는 방법이라면, 딥러닝은 인간의 신경세포 구조를 모방한 인공 신경망(Artificial Neural Networks)을 사용한다는 것이다. 딥러닝은 특히 자연어처리와 이미지 처리에서 뛰어난 성과를 보여왔다.
2. 인공 신경망의 핵심 개념들
퍼셉트론(Perceptron): 인공 신경망의 가장 작은 단위다. 선형회귀식 Y = w0 + w1X + b에서 입력(X)에 가중치(w)를 곱하고 편향(b)을 더해서 출력을 만드는 구조가 곧 하나의 퍼셉트론이다. 키-몸무게 예제로 보면, 몸무게(X)에 가중치 1을 곱하고 절편 100을 더해 키를 예측하는 것이 퍼셉트론의 동작 원리다.
경사 하강법(Gradient Descent): 가중치를 어떻게 찾느냐의 문제를 해결하는 최적화 알고리즘이다. 늦은 밤 산에서 하산할 때 "아래로 아래로" 내려가면 되는 것처럼, 손실 함수(MSE 등)의 값이 줄어드는 방향으로 가중치를 반복 조정한다. 수식으로는 x(i+1) = x(i) - α * ∇f(x)이며, α는 step size(학습률), ∇f(x)는 기울기다.
활성화 함수(Activation Function): 수치 예측(회귀)이 아닌 분류 문제를 풀려면 비선형 변환이 필요한데, 이를 위해 활성화 함수를 사용한다. 로지스틱 함수(Sigmoid)가 대표적이고, 그 외에도 tanh, ReLU, Leaky ReLU, ELU 등 다양한 종류가 있다.
히든 레이어(Hidden Layer): 입력층과 출력층 사이에 추가되는 숨은 층으로, 이를 통해 고차원적 특성(이미지, 자연어 등)을 학습할 수 있다. 다만 히든 레이어를 많이 쌓으면 역전파 과정에서 기울기가 점점 작아지는 기울기 소실(Vanishing Gradient) 문제가 발생한다. 이를 ReLU 같은 활성화 함수로 완화할 수 있게 되었다.
신경망의 학습 과정: 입력 데이터가 각 층을 통과하여 출력을 만드는 과정이 순전파(Propagation), 오류를 역방향으로 전파하며 가중치를 조절하는 과정이 **역전파(Backpropagation)**다.
3. Epoch, Batch, Iteration
딥러닝에서 데이터를 한 번만 학습시키는 것이 아니라 여러 번 반복 학습시킨다.
- Epoch: 전체 데이터가 신경망을 한 번 통과하는 사이클. 1000 epoch이면 전체 데이터를 1000번 학습한다.
- Batch: 전체 데이터를 나눈 소그룹.
- Iteration: 한 epoch 안에서 배치가 학습되는 횟수.
- 관계식: Epoch = batch × iteration. 예를 들어 데이터 1000개, 배치 사이즈 100이면 1 epoch에 iteration 10번, 가중치 업데이트도 10번 발생한다.
4. TensorFlow/Keras 실습 정리
대표적인 딥러닝 프레임워크로 TensorFlow(Google)와 PyTorch(Meta)가 있으며, 실습에서는 접근이 쉬운 TensorFlow + Keras를 사용했다.
Keras의 기본 흐름은 Sequential 모델을 만들고 model.add로 층을 추가한 뒤, model.compile로 optimizer(경사하강법 종류), loss(손실 함수), metrics(평가 지표)를 설정하고, model.fit으로 훈련시키는 것이다. 회귀 문제에서는 loss에 mean_squared_error, 분류 문제에서는 categorical_crossentropy를 사용한다. Dense 층이 완전 연결층이며, 첫 번째 층에만 input_shape로 입력 형태를 지정해주면 된다.
5. 딥러닝 최신 동향
자연어처리(NLP): 초기에는 Bag of Words처럼 단어 빈도 수 기반으로 데이터화했지만 문맥을 고려하지 못하는 한계가 있었다. 인공 신경망의 발전으로 Transformer 구조가 등장했고, 이를 기반으로 GPT-4(OpenAI), PaLM2(Google), LLaMA(Meta) 등의 LLM(Large Language Model)이 개발되어 ChatGPT 같은 서비스로 이어졌다.
이미지 처리: 이미지는 RGB 256 값으로 이루어진 3차원 데이터이므로, CNN(합성곱 신경망)을 통해 학습시킬 수 있다. 최근에는 텍스트, 이미지, 음성 등을 함께 다루는 Multimodal 시대가 열렸으며, Stable Diffusion(2022)이 대표적인 text-to-image 모델이다.
6. 데이터 직군별 ML/DL 활용
| Data Engineer | 데이터 ETL 및 파이프라인 관리 | 낮음 |
| ML Engineer | 모델 최적화, 배포, 유지보수 | 필수 |
| AI Researcher | 논문 기반 모델 구현 및 연구 | 필수 |
| Data Analyst | 데이터 분석, 인사이트 도출, 시각화 | 중간 (클러스터링, 이탈 예측, 텍스트 분석 등) |
'내일배움캠프 TIL' 카테고리의 다른 글
| 스파르타클럽 내일배움캠프 QA/QC 5기 05/06 TIL (0) | 2026.05.06 |
|---|---|
| 스파르타클럽 내일배움캠프 QA/QC 5기 05/04 TIL (0) | 2026.05.04 |
| 스파르타클럽 내일배움캠프 QA/QC 5기 04/22 TIL (0) | 2026.04.22 |
| 스파르타클럽 내일배움캠프 QA/QC 5기 04/21 TIL (0) | 2026.04.21 |
| 스파르타클럽 내일배움캠프 QA/QC 5기 04/20 TIL (0) | 2026.04.20 |