[Basic NLP] Sequence-to-Sequence with Attention (velog.io)
[Basic NLP] Transformer (Attention Is All You Need) (velog.io)
[Basic NLP] Transformers와 Tensorflow를 활용한 BERT Fine-tuning (velog.io)
[Basic NLP] HuggingFace에 내 모델 포팅하기 (velog.io)
[Basic NLP] sentence-transformers 라이브러리를 활용한 SBERT 학습 방법 (velog.io)
[Basic NLP] Google Cloud-TPU와 KoBigBird모델을 활용한 KorQuAD2.0 Fine-tuning (velog.io)
'Computer > ML·DL·NLP' 카테고리의 다른 글
[ML] 머신러닝 모델에서의 head, backbone이란? (0) | 2022.08.29 |
---|---|
Sequential Model 이란? (0) | 2022.07.01 |
[스크랩] monologg님의 KoELECTRA 개발기 (0) | 2022.06.27 |
[스크랩] 화해 Data team의 Beauty Domain-Specific Pre-trained Language Model 개발하기 (0) | 2022.06.27 |
[NLP] 윈도우 Windows에서 Mecab 사용하기! (주피터 / VSCode / Colab 등등) (0) | 2022.02.28 |
댓글