코딩스타트

코딩스타트

반응형
  • 분류 전체보기 (363)
    • IT이론 (8)
    • ChatBot (2)
    • 머신러닝 (5)
    • Web (110)
      • Spring (57)
      • Spring batch (0)
      • Spring Cloud (5)
      • Spring Security&OAuth (4)
      • JPA (24)
      • Maven (3)
      • Gradle (5)
      • TDD (7)
      • Netty (1)
      • gRPC (4)
    • Front-End (3)
      • Vue.js (3)
      • React (0)
    • Search-Engine (29)
      • Lucene (4)
      • Elasticsearch&Solr (25)
    • Middleware (23)
      • Kafka&RabbitMQ (17)
      • Redis (5)
      • Zookeeper (1)
    • 프로그래밍언어 (50)
      • Java&Servlet (26)
      • Kotlin (5)
      • JavaScript (4)
      • Python (2)
      • 디자인패턴 (13)
    • Database (14)
      • MongoDB (14)
    • 인프라 (46)
      • Web Server & WAS (4)
      • Docker&Kubernetes (19)
      • Jenkins (5)
      • AWS (4)
      • 네트워크(기초) (8)
      • 운영체제 (6)
    • Tools (13)
      • Git&GitHub (12)
      • IntelliJ (1)
    • 알고리즘&자료구조 (19)
      • 그래프&다익스트라 (7)
      • 백트랙킹 (2)
      • 재귀호출 (2)
      • 다이나믹 프로그래밍 (5)
      • 문자열 처리 (2)
    • 일상&기타 (35)
      • TODO (1)
      • Apple (0)
      • IT News (2)
      • 티스토리&구글애드센스 (1)
      • Toy Project (0)
      • IT 잡학다식 (1)
      • 일상 (1)
      • 책 (28)
  • 방명록
  • Sptirng OAuth2.0
  • Spring Security
  • Kubernetes Sample
  • Kakao Tech
  • GoReplay
  • AI Dev
RSS 피드
로그인
로그아웃 글쓰기 관리

코딩스타트

컨텐츠 검색

태그

JPA 스프링 알고리즘 몽고디비 검색엔진 springboot Kafka Lucene java Spring ElasticSearch git 엘라스틱서치 쿠버네티스 docker 루씬 백준 mongodb 디자인패턴 github

최근글

댓글

공지사항

아카이브

Transformer(2)

  • Transformer - 어텐션 원리 설명

    https://ratsgo.github.io/nlpbook/docs/language_model/tr_self_attention/ Self Attention pratical tips for Natural Language Processing ratsgo.github.io

    2023.08.30
  • 딥러닝 - 트랜스포머(Transformer)

    트랜스포머(Transformer)는 구글이 발표한 논문인 "Attention is all you need"에서 나온 모델로 기존의 seq2seq의 구조인 인코더-디코더를 따르지만, 내부적으로 RNN 레이어 없이, 어텐션(Attention)으로만 구현한 모델이다. RNN을 이용한 기존 seq2seq의 한계 기존의 seq2seq 모델은 인코더-디코더 구조로 구성되어있고, 여기서 인코더는 입력 시퀀스를 하나의 벡터 표현으로 압축하고, 디코더는 이 벡터 표현을 통해 출력 시퀀스를 만들어냈다. 하지만 이러한 구조는 인코더가 입력 시퀀스를 하나의 벡터로 압축하는 과정에서 입력 시퀀스의 정보가 일부 손실되는 단점이 있었다. 또한 RNN의 고질적인 기울기 소실 문제까지 더해졌다. 트랜스포머(Transformer)의 주..

    2022.02.15
이전
1
다음
티스토리
© 2018 TISTORY. All rights reserved.

티스토리툴바