코딩스타트

코딩스타트

반응형
  • 분류 전체보기 (363)
    • IT이론 (8)
    • ChatBot (2)
    • 머신러닝 (5)
    • Web (110)
      • Spring (57)
      • Spring batch (0)
      • Spring Cloud (5)
      • Spring Security&OAuth (4)
      • JPA (24)
      • Maven (3)
      • Gradle (5)
      • TDD (7)
      • Netty (1)
      • gRPC (4)
    • Front-End (3)
      • Vue.js (3)
      • React (0)
    • Search-Engine (29)
      • Lucene (4)
      • Elasticsearch&Solr (25)
    • Middleware (23)
      • Kafka&RabbitMQ (17)
      • Redis (5)
      • Zookeeper (1)
    • 프로그래밍언어 (50)
      • Java&Servlet (26)
      • Kotlin (5)
      • JavaScript (4)
      • Python (2)
      • 디자인패턴 (13)
    • Database (14)
      • MongoDB (14)
    • 인프라 (46)
      • Web Server & WAS (4)
      • Docker&Kubernetes (19)
      • Jenkins (5)
      • AWS (4)
      • 네트워크(기초) (8)
      • 운영체제 (6)
    • Tools (13)
      • Git&GitHub (12)
      • IntelliJ (1)
    • 알고리즘&자료구조 (19)
      • 그래프&다익스트라 (7)
      • 백트랙킹 (2)
      • 재귀호출 (2)
      • 다이나믹 프로그래밍 (5)
      • 문자열 처리 (2)
    • 일상&기타 (35)
      • TODO (1)
      • Apple (0)
      • IT News (2)
      • 티스토리&구글애드센스 (1)
      • Toy Project (0)
      • IT 잡학다식 (1)
      • 일상 (1)
      • 책 (28)
  • 방명록
  • Sptirng OAuth2.0
  • Spring Security
  • Kubernetes Sample
  • Kakao Tech
  • GoReplay
  • AI Dev
RSS 피드
로그인
로그아웃 글쓰기 관리

코딩스타트

컨텐츠 검색

태그

몽고디비 git java ElasticSearch Lucene 디자인패턴 Kafka 검색엔진 루씬 springboot JPA 알고리즘 엘라스틱서치 docker Spring mongodb 백준 github 쿠버네티스 스프링

최근글

댓글

공지사항

아카이브

Attention(2)

  • Transformer - 어텐션 원리 설명

    https://ratsgo.github.io/nlpbook/docs/language_model/tr_self_attention/ Self Attention pratical tips for Natural Language Processing ratsgo.github.io

    2023.08.30
  • 딥러닝 - 어텐션 메커니즘(Attention Mechanism)

    어텐션 메커니즘 시퀀스-투-시퀀스(seq2seq) 모델 같은 경우는 인코더에서 입력 시퀀스를 컨텍스트 벡터(context vector)라는 하나의 고정된 크기의 벡터 표현으로 문장 시퀀스를 압축하고, 디코더는 해당 컨텍스트 벡터를 이용해 출력 시퀀스를 만들어낸다. 하지만, 이러한 RNN에 기반한 seq2seq 모델에는 아래와 같은 문제점이 있다. 하나의 고정된 크기의 벡터에 문장 시퀀스 정보 모두를 압축하려 하기에 정보 소실이 발생한다. RNN의 고질적인 문제인 기울기 소실(vanishing gradient)문제가 존재한다. 즉, 위와 같은 문제로 기계번역 같은 분야에서 입력된 문장의 길이가 길어지게 되면 번역 성능이 크게 줄어든다. 하지만 어텐션이라는 아이디어로 긴 입력 시퀀스에 대한 품질이 떨어지는 ..

    2022.02.15
이전
1
다음
티스토리
© 2018 TISTORY. All rights reserved.

티스토리툴바