ThLee
ThLee의 기록장
ThLee
전체 방문자
오늘
어제
  • 분류 전체보기 (137)
    • 정보처리기사 (13)
    • 알고리즘&문제 (5)
    • 인공지능 (4)
    • 자연어처리(NLP) (6)
    • 파이썬 (24)
    • 앱인벤터 강좌 (21)
    • 리눅스 (4)
    • 프로젝트 (1)
    • (App)톡분석AI (2)

블로그 메뉴

  • 홈
  • 태그
  • 방명록

공지사항

인기 글

태그

  • 정보처리기사 정리
  • 블록코딩
  • 인공지능
  • 블로그
  • 정보처리기사 실기 정리
  • 파이썬
  • 앱인벤터 블로그
  • 앱인벤터 강좌
  • Python
  • 앱인벤터
  • 딥러닝
  • 앱인벤터 무료
  • 정보처리기사 실기
  • 파이썬 넘파이
  • 어플
  • AI
  • 넘파이
  • 정보처리기사
  • 판다스
  • 정처기

최근 댓글

최근 글

티스토리

hELLO · Designed By 정상우.
ThLee

ThLee의 기록장

자연어처리(NLP)

워드 임베딩(Word Embedding)

2022. 12. 16. 11:26
728x90

시작하기 앞서 "원-핫 인코딩의 한계"를 다시 한번 말씀드리겠습니다.

1. 벡터를 저장하기 위해 필요한 공간이 계속 늘어난다

2. 단어의 유사도를 표현하지 못한다

 

원핫 인코딩의 단점을 보완하기 위해 나온 것이 "워드 임베딩"입니다.

 

워드 임베딩(Word Embedding)이란 ?

단어를 밀집 벡터(dense vector)의 형태로 표현하는 방법을 워드 임베딩이라고 합니다.
워드 임베딩 과정을 통해 나온 결과를 임베딩 벡터(embedding vector)라고도 합니다

 

- 원-핫 벡터 임베딩 벡터
차원 고차원(단어 집합의 크기) 저차원
다른 표현 희소 벡터의 일종 밀집 벡터의 일종
표현 방법 수동 훈련 데이터로부터 학습함
값의 타입 1과 0 실수

 

워드 임베딩의 종류

  1.  LSA
  2. Word2Vec
  3. FastText
  4. Glove
728x90

'자연어처리(NLP)' 카테고리의 다른 글

TF-IDF 해석 방법(+ 예제, 실험)  (0) 2023.01.05
Skip-gram  (0) 2022.12.16
CBOW(Continuous Bag of Words)  (2) 2022.12.16
워드투벡터(Word2Vec)  (0) 2022.12.16
NLP에서 원-핫 인코딩(One-hot encoding)이란?  (0) 2022.12.16
    '자연어처리(NLP)' 카테고리의 다른 글
    • Skip-gram
    • CBOW(Continuous Bag of Words)
    • 워드투벡터(Word2Vec)
    • NLP에서 원-핫 인코딩(One-hot encoding)이란?
    ThLee
    ThLee
    # 포트폴리오 https://thleewave.notion.site/ThLee-1fef9e057dbf40d5b7b851ab0abccf36?pvs=4 #Github - https://github.com/git-ThLee #IoT 스타트업 -Full-stack -2021.01~2021.07 -사용기술 : fluterr, arduino, node.js #코딩학원 강사 - 2019.11 ~ 진행중 - 언어 : python, 블록 코딩 - 플랫

    티스토리툴바