작은 스케일 -> 가까이서 세세하게

큰 스케일 -> 좀 떨어져서 전체적으로, 전반적으로 모호하게 보임

 

Scale Space -> 여러 스케일의 이미지들을 모아놓은 것

-> 스케일 변화를 위해 이미지 확대/축소 => 이미지 피라미드

 

이미지의 사이즈 유지, 이미지를 블러링 시킴으로 스케일이 커지게 할 수 있음 -> 가우시안 필터 사용

더 많이 블러될 수록 스케일이 커짐

 

 

'공부일지 > Computer Vision & Image Processing' 카테고리의 다른 글

Tensorflow in Practice 1, Computer Vision  (0) 2020.06.21
GAN  (0) 2020.06.02
OpenCV, visual studio에서 시작  (0) 2020.05.28
SIFT 절차  (0) 2020.01.28
OpenCV 정리하기(1)_Finger Count  (0) 2019.10.16

Alphapose 는 cpu only가 안되는 것 같다..

 

1. windows부분 따라하기

https://github.com/MVIG-SJTU/AlphaPose/blob/master/docs/INSTALL.md#Windows

 

MVIG-SJTU/AlphaPose

Real-Time and Accurate Multi-Person Pose Estimation&Tracking System - MVIG-SJTU/AlphaPose

github.com

2. python setup.py build develop 실행

이 때,  setup.py  파일에서

if platform.system() != 'Windows':

이 부분을

if platform.system() == 'Windows':

이렇게 고쳐주어야

deconv_conv_cuda import error가 발생하지 않음 -> cuda 필수

 

3. 무사히 빌드되었다면

python scripts/demo_inference.py --cfg ./configs/coco/resnet/256x192_res50_lr1e-3_1x.yaml --checkpoint pretrained_models/fast_res50_256x192.pth --indir examples/demo --outdir examples/res

 

데모파일 실행

여기서 사용한 모델은 그냥 fastpose모델임

 

 detector.py에서 scipy.misc는 imread없다고? 나오는데

파일 들어가서

orig_img_k = scipy.misc.imread(im_name_k, mode='RGB')

이 부분을

orig_img_k = imageio.imread(im_name_k, pilmode='RGB')

이렇게 수정한 후 다시 위 데모 명령어 실행

 

3. 끝!

 

만약 oom이 뜨면 배치사이즈 조절해주면 된다. 조절방법은

https://github.com/MVIG-SJTU/AlphaPose/blob/master/docs/GETTING_STARTED.md

 

MVIG-SJTU/AlphaPose

Real-Time and Accurate Multi-Person Pose Estimation&Tracking System - MVIG-SJTU/AlphaPose

github.com

참고

'공부일지 > Pose Estimation' 카테고리의 다른 글

COCO Dataset 분석  (0) 2020.03.16
OpenPose 논문 정리  (0) 2020.03.16
OpenPose python api video 재생  (0) 2020.01.22
OpenPose python api 설치  (0) 2020.01.20

params = dict()
params["model_folder"] = "../../../models/"
params["process_real_time"] = True
params["video"] = "C:........" 
params["camera"] = 0
params["process_real_time"] = True
params["frames_repeat"] = True
params["body"] = 1
opWrapper = op.WrapperPython(3)
opWrapper.configure(params)
opWrapper.execute()

 

 

1. opWrapper.start()대신 execute()

2. op.WrapperPython(3)써주기 -> mode설정 필

'공부일지 > Pose Estimation' 카테고리의 다른 글

COCO Dataset 분석  (0) 2020.03.16
OpenPose 논문 정리  (0) 2020.03.16
Alphapose windows demo시작하기  (0) 2020.01.27
OpenPose python api 설치  (0) 2020.01.20

1. git clone

 

2. prerequisites만족 시키기

https://github.com/CMU-Perceptual-Computing-Lab/openpose/blob/master/doc/prerequisites.md

 

CMU-Perceptual-Computing-Lab/openpose

OpenPose: Real-time multi-person keypoint detection library for body, face, hands, and foot estimation - CMU-Perceptual-Computing-Lab/openpose

github.com

3. installation 따라하기

https://github.com/CMU-Perceptual-Computing-Lab/openpose/blob/master/doc/installation.md

 

CMU-Perceptual-Computing-Lab/openpose

OpenPose: Real-time multi-person keypoint detection library for body, face, hands, and foot estimation - CMU-Perceptual-Computing-Lab/openpose

github.com

cmake시에 x64하는거 잊지말기

CPU_ONLY, BUILD PYTHON체크(PYBIND11은 알아서 되는듯)

CONFIGURE -> GENERATE -> OPEN PROJECT

 

4. release,x 64로 빌드, 목록중에서 pyopenpose프로젝트만 선택해서 빌드

-> 나같은 경우는 이렇게 해야 build/python/openpose에 release폴더가 생성되고 파일들이 만들어졌슴

 

5. testing

https://github.com/CMU-Perceptual-Computing-Lab/openpose/blob/master/doc/modules/python_module.md

 

CMU-Perceptual-Computing-Lab/openpose

OpenPose: Real-time multi-person keypoint detection library for body, face, hands, and foot estimation - CMU-Perceptual-Computing-Lab/openpose

github.com

잘 됨

'공부일지 > Pose Estimation' 카테고리의 다른 글

COCO Dataset 분석  (0) 2020.03.16
OpenPose 논문 정리  (0) 2020.03.16
Alphapose windows demo시작하기  (0) 2020.01.27
OpenPose python api video 재생  (0) 2020.01.22

+ Recent posts