NER = Named Entity Recognition

CRF = Conditional Random Field

 

*CRF

-input : Bi-LSTM을 통해 나온 모든 hidden vector

-output : sequence labeling에서 가장 높은 점수를 가지는 정답 label을 출력

-BIOES scheme 사용 : B(Begin), I(Inside), O(Outside), E(End), S(Sinlge)

 

*NER 구조 변경

(1) Cell : RNN(장기 메모리 상실), GRU, LSTM

(2) 층 추가 : 

(3) 방향 추가 : Bi-LSTM

 

SQuAD : Stanford Question Answering Dataset

IMDB : IMDB Review Sentiment Analysis

 

Albert

 

BERT : Bert는 Transfomer와 달리, positional encoding을 사용하지 않고, position embedding을 사용한다.

BERT : Transformer 모델에서 Encoder부분만 사용하여 Input을 Embedding한다.

 

Multi-Head Attention : 

MLM=Masked Language Model : 

NSP=Next Sentence Prediction : 

Dynamic Embedding : 

 

Transfomer :

 

반응형

'스타트업 > AI' 카테고리의 다른 글

[AI] ALBERT  (0) 2020.05.25
[AI] Transformer & ALBERT  (0) 2020.05.21
[AI] OCR Parsing 관련 paper 2개  (0) 2020.05.08
[AI] MORAN  (0) 2020.04.13
[AI] Graph Convolutional Network  (0) 2020.04.09

+ Recent posts