문장 내장
Sentence embedding다음에 대한 시리즈 일부 |
머신러닝 및 데이터 마이닝 |
---|
![]() |
문장 임베딩은 문장이 실제 숫자의 벡터에 매핑되는 자연어 처리(NLP)의 기법 집합의 집합적 이름이다.[1][2][3][4][5][6][7][8]null
적용
문장 임베딩은 딥러닝 소프트웨어 라이브러리 PyTorch와[9] TensorFlow에서 사용된다.[10]null
평가하기
문장 인코딩을 테스트하는 방법은 문장 이해(SIK-E)와 연관성(SIK-R) 모두를 위한 문장 이해(SIK) 말뭉치에[11] 적용하는 것이다.null
최상의 결과는 SNLI(Stanford Natural Language Inference) Corpus에서 훈련된 BiLSTM 네트워크를 사용하여 얻는다.SIAT-R의 Pearson 상관 계수는 0.885이고 SIAT-E의 결과는 86.3이다.이전 점수보다 약간 향상된 점이 제시되었다:[13] 양방향 게이트 리커런 유닛의 결합을 이용한 SIAT-R: 0.888 및 SIAT-E: 87.8.null
참고 항목
외부 링크
![]() | 스콜리아는 Q29043221에 대한 주제 프로파일을 가지고 있다. |
참조
- ^ 종이 요약: 다운스트림 및 언어 탐색 작업에 포함된 문장 평가
- ^ 오렌 바칸, 노암 라진, 잇지크 말키엘, 오리 카츠, 아비 카키울루, 노암 코닉스타인."증류 문장 임베딩을 통한 확장 가능한 주의 문장-페어 모델링".AAAI 2020; arxiv:1908.05161.
- ^ [건축비평] 세계어 임베딩과 문장 임베딩의 현황
- ^ 다니엘 세르, 인페이 양, 성이콩, 난화, 니콜 림티아코, 롬니 세인트.존, 노아 콘스탄트, 마리오 과하르도-세스페데스, 스티브 위안, 크리스 타르, 윤환 성, 브라이언 스트로프: "범용 문장 인코더", 2018; ArXiv:1803.11175.
- ^ 레델 우, 아담 피쉬, 수미트 초프라, 키스 아담스, 앙투안 보르데스: "스타 스페이스: 모든 것을 임베드하라!", 2017; arXiv:1709.03856.
- ^ 산제프 아로라(Sanjev Arora), 잉유량(Yingyu Liang), 텐유 마(Tengu Ma). "문장 임베딩에 간단하지만 박치기 어려운 기준선", 2016; 공개 검토:SyK00v5xx.
- ^ 미르체아 트리판, 보그단 아이오네스쿠, 크리스티안 가데아, 댄 아이오네스쿠."시맨틱 분석을 위한 그래프 디지털 신호 처리 방법."SACI(Applicated Computing Intelligence and Informatics), 2015 IEEE 10회 주빌리 국제 심포지엄, 페이지 187-192.IEEE, 2015; IEEE:7208196.
- ^ 피에르파올로 바실레, 안날리나 카푸토, 조반니 세메라로."분포공간에 있어서의 단어의 구성적 의미론에 관한 연구."시맨틱 컴퓨팅(ICSC), 2012 IEEE 6차 국제 컨퍼런스 on, 페이지 154-161.IEEE, 2012; IEEE:6337099 .
- ^ Microsoft. "distilled-sentence-embedding".
- ^ Google. "universal-sentence-encoder". TensorFlow Hub. Retrieved 6 October 2018.
{{cite web}}
:last=
일반 이름 포함(도움말) - ^ 마르코 마렐리, 스테파노 메니니, 마르코 바로니, 루이사 벤티보글리, 라파엘라 베르나르디, 로베르토 잠파렐리."구성 분포 의미 모델 평가를 위한 SIC 치료제"LREC의 경우, 2014 페이지 216-223[1].
- ^ 알렉시스 코네우, 두웨 키엘라, 홀거 슈웬크, 로이크 바라우트: "자연어 추론 자료에서 보편적 문장 표현의 감독 학습", 2017; Arxiv:1705.02364.
- ^ Sandeep Subramanian, Adam Trischler, Yosua Bengio: "Learning General Purpose Distribution 문장 표현 대규모 다중 작업 학습을 통한 학습 일반 목적 분산형 문장 표현", 2018; arXiv:1804.00079.