본문 바로가기

반응형

전체 글

(161)
RuntimeError: output 1 ( [ CPULongType{} ]) of traced region did not have observable data dependence with trace inputs; this probably indicates your program cannot be understood by the tracer. 에러 발생 환경 pytorch model -> onnx로 변환시에 발생 문제 원인 output 이 list, dictionary 등 tensor 가 아닌 다른 형태이기 때문에 발생 해결 방안 model output을 tensor로 바꿈
[꼼꼼하게 논문 읽기] DVIS: Decoupled Video Instance Segmentation Framework ( 2023 ) 23년 6월 6일에 나온 논문입니다. 요즘 너무 정신이 없었어요. 개발도 개발이고 출장도 다녀왔고 그래서 오랜만에 올리는것 같네요. real time으로 될까하는 의문은 있지만 아마 online method가 있는것으로 보아 활용가능할 것으로 보이긴해요 다만 많은 tuning이 필요하겠지만 말이죠. 여튼 함께 보시죠. Abstract Video instance segmentation( VIS )는 자율주행 그리고 video editing 과 같은 다양한 분야에서 매우 중요한 task 입니다. 현존하는 methods는 종종 현실에서 복잡하고 긴 비디오에 대해 성능이 떨어지는 데, 주로 두 가지 이유 때문입니다. 먼저, offline methods는 tightly-coupled modeling paradig..
[꼼꼼하게 논문 읽기]Continual Test-Time Domain Adaptation(2022) Abstract Test-time domain adaptation은 source pretrained model을 target domain에 source data 없이 adapt하는 것을 목적으로 합니다. 현존하는 연구는 주로 target domain이 static한 경우를 고려합니다. 그러나, real-world machine perception systems는 non-stationary 으로 동작하고 target domain distribution이 시간에 따라 지속적으로 변하죠. 현존하는 모델은 대게 self-training과 entropy regularization에 기반하는데 이런 non-stationary한 환경으로부터 어려움을 겪습니다. target domain에서 시간에따라 distribut..
RuntimeError: CUDA error: device-side assert triggered CUDA kernel errors might be asynchronously reported at some other API call,so the stacktrace below might be incorrect. For debugging consider passing CUDA_LAUNCH_BLOCKING=1 발생 상황 cudstom data로 특정 network에서 학습시키고자 할때 발생한 에러 해결 방법 num_classes를 체크하고 그를 수정. 필자의 경우 9개의 classes를 예측해야했기 때문에 9개로 수정
[ 꼼꼼하게 논문 읽기 ]MobileInst: Video Instance Segmentation on th Mobile( 2023 ) Abstract video instance segmentation 을 위한 최근 연구들이 유망한 결과들에 도달했지만, 이 방법들은 real-time applications 에 적용하는 것을 아직도 어렵죠. (1) 많은 계산량과 memory cost 문제 (2) tracking objects를 하기 위해 복잡한 complicated heuristics 때문이죠. 이들 문제를 다루기 위해, 저자들은 MobileInst 를 제안하는 데, lightweight 하기 mobile-friendly한 framework인데 video instnace segmentation을 위한 framework이죠. 아 물론 mobile device에서요. 먼저, MobileInst는 mobile vision transformer를..
CSPNet 파헤치기 1 먼저 우리가 끝장을 봐야할 부분을 가지고 오고 내부에 있는 모든것을 뜯어보겠습니다. 어떤게 목표냐? 아래 코드에요 설명을 보자면 CSP base model이고 논문 링크를 첨부해놨네요. 기존 논문과는 다른 부분이 있는데 1x1 expansion conv를 다룬다네요. 목적은 간단함을 위해서고요. 뭐 보면서 시작해봅시다. class CSPNet(Backbone): """Cross Stage Partial base model. Paper: `CSPNet: A New Backbone that can Enhance Learning Capability of CNN` - https://arxiv.org/abs/1911.11929 Ref Impl: https://github.com/WongKinYiu/CrossSta..
[ 꼼꼼하게 논문 읽기 ]CSPNET: A NEW BACKBONE THAT CAN ENHANCE LEARNINGCAPABILITY OF CNN ( 2019 ) 원래 이렇게까지는 안하는데... csp를 구현해야할 부분이 있어서, 이번에는 논문 리뷰 후에 cspdarknet53 코드를 분석하는 시간을 가져볼게요..코드 분석은 다른 곳에 올릴 예정입니다. 최적화하는데 적용해야할 부분이 있어서 적용을 해보려고 합니다. 여튼 시작하시죠 Abstract Neural networks는 object detection같은 vision tasks 에서 믿을 수 없는 결과를 달성하게하는 SOTA approaches를 가능하게 해왔죠. 그러나, 이런 굉장한 성공은 omputiation resources에 의존적이죠. 이는 advanced technology를 appreciating하는 cheap devices를 가진 사람들에게 방해 요소였고요. 이 논문에서 저자들은 Cross St..
[꼼꼼하게 논문 읽기]EcoFormer: Energy-Saving Attentionwith Linear Complexity ( 2023 ) Abstract transformer는 deep learning을 위한 trasformative frameworks 죠. sequential data를 models하고 다양하고 광범위한 분야에서 remarkable performance를 달성했죠. 그런데, high computational and energy cost의 가 항상 문제죠. efficiency를 향상시키기 위해, popular choice는 models를 compress하는 것이죠. 이는 binarization을 통해 가능한데 floatingpoint values를 binary ones로 제한하죠. bitwise 연산이 상당히 cheap하기 때문에 resource consumption을 절약하기도하고요. 그렇지만, 현존하는 binarizat..