본문 바로가기
Vision/Machine Learning

2011년 AlexNet 과 2006년 Hinton, Bengio 교수 연구차이 비교

by 이센 2025. 2. 3.

2011년 ImageNet 대회에서 Alex Krizhevsky가 개발한 AlexNet은 당시까지의 컴퓨터 비전 성능을 극적으로 개선한 모델이다. 특히 2006년 Hinton과 Bengio 교수가 발표한 논문에서 제기된 초기값 설정의 중요성 문제와 비교하여 여러 가지 면에서 개선이 이루어졌다.

1. 2006년 Hinton & Bengio의 논문과 문제점

2006년 Geoffrey Hinton과 Yoshua Bengio 교수는 심층 신경망(Deep Neural Network, DNN)의 학습이 어려운 주요 원인을 분석한 논문을 발표했다.

당시 DNN은 층이 깊어질수록 학습이 제대로 이루어지지 않았는데, 이는 기울기 소실(Vanishing Gradient) 문제 때문이었다.

논문에서는 **가중치 초기화(Weight Initialization)**가 매우 중요하다고 강조하면서, 이를 해결하기 위해 사전 훈련(Pre-training) 기법을 제안했다.

특정한 방법으로 초기값을 설정하면 경사 하강법(Gradient Descent)이 더 안정적으로 작동할 수 있었다.

Restricted Boltzmann Machine(RBM)과 같은 비지도 학습을 활용하여 초기 가중치를 사전 훈련한 후, 이를 기반으로 전체 신경망을 미세 조정(Fine-tuning)하는 방식을 사용했다.

2. 2011년 ImageNet 대회에서 AlexNet의 개선점

AlexNet은 2006년 논문의 초기화 문제를 뛰어넘는 몇 가지 중요한 개선을 적용했다.

① ReLU(Rectified Linear Unit) 활성화 함수 사용

기존의 시그모이드(Sigmoid) 나 하이퍼볼릭 탄젠트(Tanh) 활성화 함수는 층이 깊어질수록 기울기 소실 문제를 유발했다.

AlexNet은 ReLU(f(x) = max(0, x))를 적용하여 기울기 소실 문제를 완화하고, 학습 속도를 크게 향상시켰다.

ReLU는 음수를 0으로 변환하고, 양수는 그대로 유지하여, 뉴런이 죽는 문제를 방지하고 가중치 업데이트가 잘 이루어지게 한다.

② 대량의 데이터(ImageNet)와 GPU 가속 학습

2006년 당시에는 데이터셋이 작아 심층 신경망을 학습시키기 어려웠다.
AlexNet은 ImageNet(약 120만 장의 이미지, 1000개 클래스) 을 활용해 대규모 데이터 기반 학습을 수행했다.

또한, 당시로서는 혁신적이었던 NVIDIA GTX 580 GPU 를 사용하여 병렬 연산을 통해 학습 속도를 획기적으로 개선했다.

③ 드롭아웃(Dropout) 기법 도입

2006년 논문에서는 사전 훈련(Pre-training) 방법으로 과적합(Overfitting)을 줄이려고 했지만, AlexNet은 Dropout을 적용하여 훨씬 효과적으로 일반화 성능을 높였다.

Dropout은 학습 중 무작위로 일부 뉴런을 비활성화하여 특정 뉴런에 대한 과적합을 방지하는 기법이다.

④ 데이터 증강(Data Augmentation) 적용

AlexNet은 이미지 회전, 반전, 크기 조절 등의 데이터 증강 기법을 사용하여 훈련 데이터의 다양성을 증가시켰다.

이는 모델의 일반화 성능을 높이고 과적합을 방지하는 데 크게 기여했다.


⑤ CNN 아키텍처 확장

AlexNet은 8개의 층(5개 합성곱층 + 3개 완전연결층)으로 이루어진 심층 CNN(Deep Convolutional Neural Network) 이다.

2006년 당시에는 얕은 신경망을 주로 사용했지만, AlexNet은 더 깊고 복잡한 CNN 구조를 도입하여 뛰어난 성능을 달성했다.

3. 결론: AlexNet의 개선이 2006년 논문의 한계를 어떻게 극복했는가?

결론적으로, AlexNet은 ReLU 적용, GPU 병렬 연산, Dropout, 데이터 증강 등의 방법으로 초기 가중치 설정 문제를 극복하고 CNN의 성능을 크게 향상시켰다. 이러한 개선 덕분에 2012년 ImageNet 대회에서 2위 대비 절반 이하의 오류율(16.4%)을 기록하며 우승하였고, 이후 딥러닝 혁명의 출발점이 되었다.