
AI vs ML vs DL: 기술 계보도와 개발자를 위한 학습 로드맵
AI, 머신러닝, 딥러닝의 차이를 '마트료시카 인형' 비유로 설명합니다. 최신 Transformer 아키텍처, RAG vs Fine-tuning 비교, AI 윤리, 그리고 개발자가 AI 엔지니어로 커리어 전환하는 법까지 총정리.

AI, 머신러닝, 딥러닝의 차이를 '마트료시카 인형' 비유로 설명합니다. 최신 Transformer 아키텍처, RAG vs Fine-tuning 비교, AI 윤리, 그리고 개발자가 AI 엔지니어로 커리어 전환하는 법까지 총정리.
AI 시대의 금광, 엔비디아 GPU. 도대체 게임용 그래픽카드로 왜 AI를 돌리는 걸까? 단순 노동자(CUDA)와 행렬 계산 천재(Tensor)의 차이로 파헤쳐봤습니다.

LLM 커스터마이징 방법인 파인튜닝과 프롬프트 엔지니어링의 차이와 선택 기준

AI와 딥러닝은 왜 CPU를 버리고 GPU를 선택했을까요? ALU 구조 차이부터 CUDA 메모리 계층, 그래픽 API(Vulakn/DirectX), 그리고 생성형 AI의 원리까지 하드웨어 가속의 모든 것을 다룹니다.

신경망의 동작 원리를 프로젝트 경험을 통해 이해한 과정. 공장 라인 비유부터 역전파, 하이퍼파라미터 튜닝까지.

창업 초기, 투자자 미팅을 다녀온 후 눈을 반짝이며 생각했습니다. "우리 서비스에도 AI 기능 하나 넣어보자. 요즘 AI 없으면 투자받기 힘들다더라."
백엔드 개발자인 제 머릿속은 복잡해졌습니다. "AI? 그럼 챗봇을 만들어야 하나? 아니면 추천 시스템? 텐서플로우(TensorFlow)를 공부해야 하나? 아니면 그냥 엑셀로 통계 내는 것도 AI인가? ChatGPT API만 붙이면 되는 건가?"
구글링을 해보니 혼란은 더 가중되었습니다. 어떤 글은 "머신러닝 알고리즘"이라 하고, 어떤 글은 "딥러닝 모델"이라 하고, 어디서는 그냥 "AI 기술"이라고 퉁쳤습니다. 도대체 이 셋은 뭐가 다르고, 우리 서비스에는 뭘 써야 할까요?
이 글은 그 혼란 속에서 제가 정리한 "비전공자도 이해할 수 있는 AI 계보도"이자, "AI를 도입하려는 개발자를 위한 가이드"입니다. 미디어의 화려한 용어에 속지 않고 기술의 본질을 꿰뚫어 봅시다.
가장 헷갈렸던 건 "경계"였습니다.
if (user.age > 19) return 'adult' 코드도 AI라고 할 수 있나?" (정답: 아주 넓은 의미에선 맞음)특히 미디어에서 이 용어들을 마구잡이로 섞어 쓰다 보니, 마치 서로 다른 기술 3개가 경쟁하는 것처럼 착각했습니다. 하지만 공부를 해보니 이들은 경쟁 관계가 아니라 포함 관계였습니다.
이 관계를 가장 완벽하게 설명해준 비유는 "러시아 인형(마트료시카)"였습니다.
가장 큰 인형 안에 중간 인형이 있고, 그 안에 작은 인형이 있는 구조입니다. 그리고 최근에는 그 안에 아주 특별한 더 작은 인형이 하나 더 생겼습니다.
graph TD
subgraph "Artificial Intelligence (AI)"
subgraph "Machine Learning (ML)"
subgraph "Deep Learning (DL)"
subgraph "Generative AI (GenAI)"
G[GPT, DALL-E, Claude, Llama]
end
D[Neural Networks (CNN, RNN, Transformer)]
end
M[Decision Trees, SVM, Naive Bayes, Linear Regression]
end
R[Rule-based AI / Symbolic AI]
end
style G fill:#f9f,stroke:#333
style D fill:#f96,stroke:#333
style M fill:#69f,stroke:#333
style R fill:#9f6,stroke:#333
이 그림이 머릿속에 잡히자 모든 의문이 풀렸습니다. "아, 챗GPT(GenAI)는 딥러닝의 일종이고, 딥러닝은 머신러닝의 부분집합이구나. 그리고 AI는 이 모든 걸 포괄하는 개념이구나."
초기의 AI는 GOFAI (Good Old-Fashioned AI) 또는 Symbolic AI라고 불렸습니다. 쉽게 말해 "인간이 규칙을 하나하나 코딩해주는 것"입니다.
"규칙을 코딩하지 말고, 데이터를 던져주고 기계가 스스로 규칙을 찾게 하자" (Software 2.0). 개발자는 "고양이의 특징(귀가 뾰족함)"을 코딩하지 않습니다. 대신 "고양이 사진 1만 장"과 "개 사진 1만 장"을 줍니다(Labeling). 기계는 통계적인 기법을 이용해 데이터 속에서 패턴(규칙)을 찾아냅니다. 이를 학습(Training)이라고 합니다.
"특징 추출조차 기계가 알아서 하게 하자" 인간의 뇌세포(뉴런) 구조를 모방한 인공신경망(ANN)을 씁니다. 데이터 양이 폭발적으로 늘어나고(Big Data), GPU 성능이 좋아지면서 가능해졌습니다. 가장 큰 차이점은 "사람의 개입이 최소화된다"는 점입니다. 그냥 생 사진(Raw Data)을 던져주면, 신경망의 깊은 층(Deep Layer)들이 알아서 선 -> 면 -> 눈/코/입 -> 얼굴 순으로 특징을 스스로 학습합니다(Representation Learning).
여기서 혁명이 일어납니다. 구글이 발표한 논문 "Attention Is All You Need"가 세상을 바꿨습니다.
생성형 AI를 도입할 때 창업자가 가장 많이 고민하는 주제입니다. "우리 회사의 데이터를 AI에게 어떻게 가르치지?"
결론: 처음엔 99% RAG로 시작하세요. 파인튜닝은 RAG로 안 될 때 고려하는 최후의 수단입니다. RAG가 훨씬 가성비가 좋습니다.
AI를 도입할 때 기능만 보면 안 됩니다.
"저도 AI 엔지니어가 되고 싶은데 뭐부터 공부해야 하나요?"
LangChain 라이브러리를 배우세요.Vector DB(Pinecone, Weaviate)와 임베딩(Embedding) 개념을 익히세요.대부분의 웹/앱 개발자는 Level 1~2만 잘해도 엄청난 가치를 만들어낼 수 있습니다. 굳이 수학부터 파지 말고, API부터 호출해보세요.
개발팀 회의 시간, 저는 이제 이렇게 말할 수 있게 되었습니다.
"이번 '악성 댓글 필터링' 기능은 텍스트 데이터니까 딥러닝(BERT)이 정확하겠지만 비용이 든다. 초기엔 규칙 기반(욕설 리스트)으로 막고, 놓치는 건 API(OpenAI Moderation)를 쓰자. 그리고 '사내 규정 챗봇'은 파인튜닝 하지 말고 RAG 방식으로 만들자."
기술의 위계 질서를 알면, 도구를 선택하는 눈이 생깁니다. 무조건 최신 유행인 생성형 AI를 고집할 필요는 없습니다. 문제의 본질을 보고 가장 적합한 "마트료시카 인형"을 꺼내 쓰세요. 그것이 진짜 엔지니어링입니다.