Transformer-Preparing-Data
in projects on Blog, Github, Pages, Jekyll, Spacy
서론
다음 글을 참고 했습니다. 트랜스포머를 구현해보기에 앞서 우리가 사용할 데이터들을 준비해 주어야 합니다. 학습과정은
TorchText의 Multi30k 데이터셋를 이용 할 것이며 중간 토큰화 과정에spaCy를 사용할 것입니다.
in projects on Blog, Github, Pages, Jekyll, Spacy
다음 글을 참고 했습니다. 트랜스포머를 구현해보기에 앞서 우리가 사용할 데이터들을 준비해 주어야 합니다. 학습과정은
TorchText의 Multi30k 데이터셋를 이용 할 것이며 중간 토큰화 과정에spaCy를 사용할 것입니다.
in projects on Blog, Github, Pages, Jekyll, Spacy, Transformer
다음 글을 참고해 작성했습니다.
Preparing The Data에서는 데이터 셋의 토큰화 및 정수 인코딩 주었습니다. 그 다음 과정인 트랜스포머의인코더`를 구현해 볼 것입니다.
in projects on Blog, Github, Pages, Jekyll, Spacy, Transformer
논문 ‘Attention is All You Need’에서 설명하는 Transformer을 구현해 볼 것이다. 전체적인 내용은 다음 글을 참고 했습니다.
딥러닝을 공부하다보면 Normalization, DropOut, Residual Connection 등이 학습시간을 단축 시키기 위해 사용됩니다. 우리는 그 중에서 딥러닝에서 사용되는
정규화 계층에 대 정리해 볼 것입니다. 정규화 기법들로 Batch Normalization, Layer Normalization, Instance Normalization, Group Normalization이 있습니다.
Normalization 기법이 사용되는 가장 큰 이유는
Covatiate Shift를 없애주기 위해서 입니다. 그래서 Covatiate Shift란 무엇일까요? 다음 블로그 내용을 참고했습니다.
in Unclassified on Blog, Github, Pages, Jekyll, Markdown
Github 첫 글을 장식해봅시다 TheoryDB님의 글을 참고하여 작성했습니다
in EnvOps on Blog, Github, Pages, Jekyll, Git, Push, Openssh
TheoryDB님의 글을 보며 Github 블로그를 구축하는 와중 직면한 발생한 Git에러와 해결 방법을 제시하고자 합니다.