반응형 general유사도1 [NLP] Seq2seq with Attention ※ KAIST 주재걸 교수님 강의 및 자료를 바탕으로 작성한 글입니다. Seq2seq Sequence-to-sequence는 many to many 문제로 encoder를 통해 input sequence를 모두 읽은 후 decoder로 output sequence를 생성 및 예측하는 문제이다. Sequence-to-sequence는 sequence of words를 input으로 받아 sequence of words를 output으로 주며, 크게 encoder와 decoder로 구성되어있다. encoder와 decoder는 parameter를 share하지 않으며 encoder의 마지막 time step의 hidden state vector는 decoder의 첫 번째 time step에 들어오는 h0가 .. 2021. 9. 10. 이전 1 다음 728x90 반응형