01261pam a2200325 c 4500001001300000005001500013007000300028008004100031020003400072023001800106049002800124052001800152056001500170082001500185245019200200260003900392300004700431490004100478500003500519504003300554650005900587650006000646650004000706700004100746830004100787880003300828880003700861880002600898950001100924KMO20195269420191121094039ta190916s2019 ulkad 001 kor  a9791161753508g93000:c\35000 aCIP20190360910 lEM7423041lEM7423042c201a004.735b19-4 a004.7352601a006.35223006880-01a한국어 임베딩 =xSentence embeddings using Korean corpora :b자연어 처리 모델의 성능을 높이는 핵심 비결 Word2vec에서 Elmo, Bert까지 /d이기창 지음 6880-02a서울 :b에이콘,c2019 a347 p. :b천연색삽화, 도표 ;c24 cm10a에이콘 데이터 과학 시리즈 a감수자: Naver Chatbot Model a참고문헌과 색인수록 8a임베디드 시스템[embedded system]0KSH2005011461 8a자연 언어 처리[自然言語處理]0KSH1998020198 8a한국어[韓國語]0KSH19980127491 6880-03a이기창0KAC2019F78654aut 0a에이콘 데이터 과학 시리즈006245-01/(BaHangugeo imbeding 6260-02/(BaSeoul :bEikon,c20191 6700-03/(BaI, Gichang0 b\35000