목록전체 글 (29)
나는 문어~ 꿈을 꾸는 문어~

전체 코드 링크 : https://github.com/euiraekim/dacon-lesion-detection 목표 이전의 포스팅에서는 pytorch의 detection 프레임워크 mmdetection을 사용하여 학습을 진행했다. 이번에는 YOLO 계열의 최신 모델 YOLOv5를 이용해 학습을 시켜보도록 하자. YOLOv5는 해당 모델을 위한 라이브러리가 따로 존재하고 아래 링크에서 만나볼 수 있다. https://github.com/ultralytics/yolov5 GitHub - ultralytics/yolov5: YOLOv5 🚀 in PyTorch > ONNX > CoreML > TFLite YOLOv5 🚀 in PyTorch > ONNX > CoreML > TFLite. Contribute to..

논문 원본 링크 : https://arxiv.org/pdf/1505.04597.pdf U-Net: Convolutional Networks for Biomedical Image Segmentation Abstract 심층 네트워크가 제대로 학습하려면 수천개의 라벨링된 데이터가 필요하다. 이 논문에서는 라벨링된 데이터를 효율적으로 사용하기 위해 데이터 증강을 활용한다. 아키텍처는 context 정보를 잡아내기 위한 contracting(축소) 부분과, 정확한 localization을 위해 축소 부분과 대칭되는 expanding(확장) 부분으로 구성된다. 이 네트워크는 아주 적은 수의 이미지로 end-to-end로 학습되어, 전자 현미경 신경 구조 segmentation의 ISBI challenge에서 가장..

논문 원본 링크 : https://arxiv.org/abs/2010.11929 An Image is Worth 16x16 Words: Transformers for Image Recognition at Scale While the Transformer architecture has become the de-facto standard for natural language processing tasks, its applications to computer vision remain limited. In vision, attention is either applied in conjunction with convolutional networks, or used to rep arxiv.org AN IMAGE IS ..

https://arxiv.org/abs/1706.03762 링크에서 논문 원본을 볼 수 있다. vision 위주로 공부하던 내가 vision transformer를 이해하기 위해 NLP 관련 기술들을 공부했다. RNN, LSTM, Attention을 공부한 후 드디어 Transformer도 어느정도 이해한 것 같아서 포스팅을 해보려한다. Attention Is All You Need Abstract 이전의 시퀀스 변환 모델은 대부분 RNN이나 CNN을 기반으로 했다. 이 중 가장 성능이 좋은 것은 Attention 메커니즘을 따르는 인코더 디코더 모델이었다. 이 논문에서는 새로운 아키텍쳐인 Transformer를 제안한다. 이는 RNN과 CNN을 버리고 오로지 Attention을 기반으로 했다. 두 가지..

논문 원본 Neural Machine Translation by Jointly Learning to Align and Translate Neural machine translation is a recently proposed approach to machine translation. Unlike the traditional statistical machine translation, the neural machine translation aims at building a single neural network that can be jointly tuned to maximize the tra arxiv.org 비전 분야를 주로 다루는 내가 attention을 공부하는 이유는 vision transformer..

아래 링크에서 학습 전 데이터를 전처리하는 과정까지 다뤘다. https://harrykur139.tistory.com/8 [Object Detection] 데이콘 - 병변검출 (1) 데이터 전처리 목표 아래 링크에 해당하는 데이콘의 대회를 도전해보려한다. https://dacon.io/competitions/official/235855/overview/description 병변 검출 AI 경진대회 - DACON 좋아요는 1분 내에 한 번만 클릭 할 수 있습니.. harrykur139.tistory.com 목표 이번 포스팅에서는 학습에 사용할 수 있도록 전처리를 마친 데이터셋을 간단히 학습시켜볼 것이다. 학습이 끝나면 검증 데이터셋으로 평가를 해보고 데이콘에 제출까지 해보려한다. 학습하기 mmdetecti..

목표 아래 링크에 해당하는 데이콘의 대회를 도전해보려한다. https://dacon.io/competitions/official/235855/overview/description 병변 검출 AI 경진대회 - DACON 좋아요는 1분 내에 한 번만 클릭 할 수 있습니다. dacon.io 아 이미 끝난 대회이긴 하지만 object detection의 실전을 경험해보고 싶다. 상위권 분들의 방법과 코드를 참고하여 현재 참가자 106명(직접 제출파일을 만들어 제출한 사람 기준)중에 10등 안에 드는 것을 목표로 한다. 데이터 살펴보기 먼저 해당 대회의 데이터를 다운받은 후 프로젝트 폴더 아래의 data 폴더 안에 위치하도록 하자. import os import pandas as pd data_path = './..

나는 통계를 공부하는 중이다. 실무에서는 사용해본 적이 없고 사용해보고 싶다. 틀린 내용이 있으면 댓글로 알려주길 바라지만 아직 내 블로그에는 검색을 통한 방문자가 없다. ㅠㅠ 오로지 나의 관점으로 t-test를 이해해보겠다. t-test란? t-test는 모집단이 정규분포를 따를 때, 모평균을 검정하는 방법 중 하나다. 검정을 공부하다보니 대부분 비슷한 과정을 거친다는 것을 알 수 있었다. t-test만의 특성은 다음과 같다. 모분산을 모를 때 모평균을 검정한다. 우리는 보통 모분산을 모르는 경우가 많으므로 t-test를 많이 사용하게 된다. t-분포를 사용한다. 표본의 개수가 30 이하다. 표본의 개수가 n=30 이상으로 많다면 표본 분산은 모분산에 근사하고 중심극한정리에 의해 표본 평균의 분포는 정..