Continuum AI Laboratory

추론의 기초에서 LLM을 지나 Quantization에 이르는 궤적
Part 1. AI의 탄생과 기초
Step 1

AI(Artificial Intelligence)의 이해

단층 퍼셉트론, 머신러닝, 그리고 딥러닝(다층 퍼셉트론)

Step 2

1969년, AI의 치명적 결함 발견

XOR을 풀지 못한 단층 퍼셉트론

Step 3

머신러닝의 시도와 한계

타이타닉으로 보는 특징 공학의 한계

Step 4

딥러닝의 시작

역전파로 XOR을 풀었지만, 실전은 달랐다

Part 2. Vision (시각)
Step 5

MLP로 이미지 분류하기

MNIST 손글씨, 공간 정보를 잃다

Step 6

2012년, 컴퓨터가 사진을 보기 시작했다

CNN과 ImageNet 대회의 충격

Step 7

거인의 어깨 위에서

사전학습 모델(ResNet, VGG)로 빠르게 시작하기

Part 3. Language (언어)
Step 8

컴퓨터가 언어를 읽는 법

NLTK 기초 (토큰화, 어간 추출, 형태소 분석)

Step 9

MLP: 원핫 인코딩으로 시작

기초 베이스라인 - 단어를 숫자로 변환하는 첫걸음

Step 10

CNN: TF-IDF로 단어 중요도 반영

이미지가 아닌 텍스트에서의 CNN 활용

Step 11

RNN: Word2Vec으로 순서 처리

사전학습 임베딩 (freeze) - 시퀀스 데이터의 시작

Step 12

LSTM: GloVe로 장기기억 추가

Vanishing Gradient 문제 해결 - 긴 문맥 이해

Step 13

Attention: FastText 파인튜닝

중요 단어 집중 + 부분단어 학습 (OOV 해결)

Step 14

Transformer: 학습가능 임베딩

Self-Attention과 Multi-Head - 처음부터 학습 (소형 구조)

Step 15

RoBERTa: 사전학습 모델 파인튜닝

최종 최강 모델 - 문맥 임베딩의 완성

Part 4. Advanced
Step 16

Seq2Seq: 번역의 시작

Encoder-Decoder 구조로 시퀀스 변환 (번역/요약)

Step 17

LoRA: 효율적인 파인튜닝

거대 모델을 가볍게 - Low-Rank Adaptation으로 적은 비용에 성능 극대화

Step 18

GPT: 텍스트 생성의 시작

Decoder-only 구조 - ChatGPT의 조상 (GPT / KoGPT2)

Step 19

멀티모달 AI

여러 형태의 데이터를 하나로 (CLIP, GPT-4V)

Step 20

RAG (Retrieval-Augmented Generation)

데이터베이스 검색으로 환각 줄이기

Step 21

Instruct: 명령을 따르는 AI

RLHF와 Instruction Tuning - ChatGPT가 대화하는 방식

Step 22

양자화(Quantization)

거대 모델을 내 컴퓨터에 (GGUF, INT8, INT4)

Appendix
Appx A

PyTorch vs Keras

프레임워크 선택 가이드

Appx B

AI 필수 용어 사전

한 눈에 정리하는 딥러닝 필수 개념

Appx C

AI 필수 활용함수

빠르게 찾아보는 AI 모델링 핵심 함수 사전

Appx D

Korean LLM

한국어 특화 언어모델 - EXAONE, KoGPT, HyperCLOVA 비교와 실습

Capstone

AI Capstone

금융지표와 뉴스를 활용한 멀티모달학습 기반의 당기순이익(NIM) 예측 모델

Crafted with passion for AI Insights
Theme preferences are saved in local storage to preserve your selection across sessions.
© 2026 Jinkyu Ju. All rights reserved.