(1) Seq2Seq 문제점 : 인코더가 입력 시퀀스를 하나의 벡터로 압축하는 과정에서 입력 시퀀스의 정보가 일부 손실된다는 단점 -> Attention으로 해결

(2) Transformer

(3) Positional Encoding

(4) Encoder

(5) Encoder 의 Multi-Head Attention

 - Self Attention의 

 - Q, K, V vector 얻기

 - Scaled Dot-product Attention

(6) Multi-Head Attention

(7) Position Wise FFNN

(8) Residual Connection과  Layer Normalization

 

ALBERT

- (1) Word Embedding Size : Hidden Layer Size(768) 에서 더 작은 Embedding Size(128) 로 바꿈

- (2) Attention 과 FFN(Feed Forward Network) 간의 파라미터 공유

 

ELECTRA

- (1) RTD : Replaced Token Detection

 

ICLR = International Conference on Learning Representations

 

AI 적용 분야 : Pair Trading

Cointegration (공적분)

 

반응형

'스타트업 > AI' 카테고리의 다른 글

[AI] 형태소 분석기  (0) 2020.05.25
[AI] ALBERT  (0) 2020.05.25
[AI] NER  (0) 2020.05.20
[AI] OCR Parsing 관련 paper 2개  (0) 2020.05.08
[AI] MORAN  (0) 2020.04.13

+ Recent posts