• Paper study - HieCoAtt

    HieCoAtt Conference: Neurips2016 Presenter: 한지상 Tags: 5주차 Title: Hierarchical Question-Image Co-Attention for Visual Question Answering URL: https://arxiv.org/pdf/1606.00061.pdf Abstract 기존의 VQA 모델들에서는 질문과 관련된 이미지에 영역을 표시함. 이 논문에서는 이미지 뿐만 아니라 “what words to listen to” 즉, 텍스트에도 같은 중요성이 있다고 판단함. → 계층적 구조로 질문을 학습히고, 텍스트에도 Attention을 넣음....


  • 우분투 - 에어팟 마이크 설정

    우분투 - 에어팟 마이크 설정 우분투를 메인 os로 사용하다보면 불편한 것이 한두가지가 아니다.. 특시 가장 불편했던 것은 에어팟 연결과 에어팟 마이크 사용이었는데 에어팟 연결은 잘 되었으나 에어팟을 마이크입력으로 인식을 못하는 문제가 있었다. 그래서 줌을 사용할 때 윈도우os로 바꾸어서 사용해야하는 불편함이 있었다. 이유는 My earbuds profiles were A2DP, AVRCP and HFP...


  • 백준 22352 - 항체인식

    백준 22352 - 항체인식 백준 22352 - 항체인식 1. 구상 두 배열이 같으면 무조건 YES 아니면 각 지역의 class를 찾기 위해 dfs를 돌린다. 새로 들어온 배열과 비교해서 딱 한개의 class만 달라져야 YES이므로 dfs를 돌릴 때 각 class별로 좌표를 저장한다. 2. 풀이 dfs를 돌려서 cls 벡터에 각 class별로 좌표를 저장해 놓는다....


  • Book Study - 파이토치 첫걸음

    파이토치 첫걸음 파이토치 첫걸음


  • Paper study - Attention Is All You Need

    Transformer Conference: Neurpis2017 Presenter: 한지상 Title: Attention Is All You Need URL: https://papers.nips.cc/paper/2017/file/3f5ee243547dee91fbd053c1c4a845aa-Paper.pdf Abstract 주된 sequence transduction models는 encoder와 decoder을 포함한 복잡한 recurrent 또는 convolutional neural network에 기반한다. Transformer - attention mechanism 에만 기반. 이 모델은 WMT 2014 영어→독일어 번역 task에서 이전보다 2 높은 28.4 BLEU를 달성하였다. 여기서 이 모델은...