분류 전체보기
-
Grouped-Query Attention (GQA) 250615
01:34:54
-
사모펀드가 바라보는 재보험산업, Run-off Business 250615
01:31:11 3
-
LLM DeepSeek 주요 특징과 모델 구조 250615
01:27:23 1
-
JAL 이나모리 가즈오 회장의 대표적인 어록 250615
01:20:02
-
Mixture-of-Experts(MoE) 아키텍처 250615
01:18:11
-
LLM 고도화된 사후 훈련(Post-training), CoT 학습을 모델 내부 구조에 통합 250615
01:17:11 2
-
Gemini 2.5 Flash 양자화 (quantization) 최적화 = 모델 크기와 연산량을 줄이는 기법 250615
01:14:26 1
-
트랜스포머 디코더는 ‘어떤 단어가 적절할지’ 순차적으로 판단하면서 번역·요약·대화 등 원하는 텍스트를 생성 250615
01:09:11