Skip to content

tokenizer에 vocab추가 하면 왜 pretrained model의 token embedding 사이즈를 변경해야하는가? #11

Answered by woowonjin
woowonjin asked this question in Q&A
Discussion options

You must be logged in to vote

셀프 답변이지만 ㅋㅋㅋㅋㅋ

여기 그림처럼 단어가 임베딩될때 one-hot이 encoding이 되는데 여기서 one-hot의 차원은 vocab의 크기이기 떄문에 이부분을 수정해주는게 아닌가 하는 생각이네요.
혹시 다른 답변 있으신분은 말씀해주세요 !! 🙏🙏🙏

Replies: 1 comment

Comment options

woowonjin
Oct 16, 2021
Maintainer Author

You must be logged in to vote
0 replies
Answer selected by woowonjin
Sign up for free to join this conversation on GitHub. Already have an account? Sign in to comment
Category
Q&A
Labels
None yet
1 participant