(1) Seq2Seq 문제점 : 인코더가 입력 시퀀스를 하나의 벡터로 압축하는 과정에서 입력 시퀀스의 정보가 일부 손실된다는 단점 -> Attention으로 해결
(2) Transformer
(3) Positional Encoding
(4) Encoder
(5) Encoder 의 Multi-Head Attention
- Self Attention의
- Q, K, V vector 얻기
- Scaled Dot-product Attention
(6) Multi-Head Attention
(7) Position Wise FFNN
(8) Residual Connection과 Layer Normalization
ALBERT
- (1) Word Embedding Size : Hidden Layer Size(768) 에서 더 작은 Embedding Size(128) 로 바꿈
- (2) Attention 과 FFN(Feed Forward Network) 간의 파라미터 공유
ELECTRA
- (1) RTD : Replaced Token Detection
ICLR = International Conference on Learning Representations
AI 적용 분야 : Pair Trading
Cointegration (공적분)
반응형
'스타트업 > AI' 카테고리의 다른 글
[AI] 형태소 분석기 (0) | 2020.05.25 |
---|---|
[AI] ALBERT (0) | 2020.05.25 |
[AI] NER (0) | 2020.05.20 |
[AI] OCR Parsing 관련 paper 2개 (0) | 2020.05.08 |
[AI] MORAN (0) | 2020.04.13 |