머신러닝을 이용한 서비스는 지속적으로 늘어나고 있는 추세입니다. ML 서비스들은 항상 최고의 수준을 유지할 것라는 기댈를 갖게 합니다. 어제보다, 지난 달 보다 더 나은 추천을 해주고, 내가 원하는 목적지를 나보다 빨리 제안하고, 음악을 큐레이션 해주는 등 사용자 경험이 나아지길 기대하며 ML 베이스 서비스를 이용하고, 기업들에서도 제공하고 있습니다.
하지만 서비스의 성능을 지속적으로 발전시키기 위해서는 자동화되고 잘 짜여진 파이프라인이 필요합니다. 이런 파이프라인 없이 엔지니어가 데이터 셋 업데이트부터 모델 서빙까지 다 맡아서 하다보면 인원의 공백이나 교체 등에 의해 퀄리티가 널 뛰게 됩니다.
Deep Learning을 공부하거나 프로젝트를 진행하려면 GPU는 필수적입니다. 저의 경우는 GTX 970모델을 이용 중이었지만 학습으로 갈궈지고, 오버워치를 하다가 퍽 하고 전원이 나가더니 죽어버리는 불상사를 겪었습니다.
졸업 프로젝트로 Deep Learning관련 프로젝트를 진행하고 있어서 GPU가 절대적으로 필요한 상황이었는데 그나마 있던 GPU가 죽어서 정말 곤란한 상황이 되었습니다. 그러던 중 머신러닝 플랫폼 서비스를 오픈해서 베타 서비스를 진행중인 Cheetah라는 플랫폼을 알게 되었습니다. 마침 베타 테스터들에게 한달간 무료로 GPU 서버를 대여 해주고 있어서 RTX 2080TI 서버를 대여해 사용할 수 있었습니다.
Tensorflow를 사용하면서 제일 힘든 작업은 GPU를 이용한 환경을 세팅하는 일이다. CUDA, cuDNN등 여러 패키지를 설치해야하고, 또 따라하라는데로 따라하는데 블로그 글들이 업데이트가 되어 있지 않아서 버전 오류가 발생하기도 한다. 그래서 간단한 방법을 소개하려고 한다.
먼저 anaconda가 필요하다. anaconda는 과학용 파이썬 패키지를 묶어서 배포하는 배포판 인데 이 내용은 다음에 알아보도록 하고, anaconda가 설치 되어 있다는 사람들을 대상으로 글을 쓴다. 혹시 anaconda 설치가 필요하다면 이 글을 참조해서 설치하길 바란다.
먼저 python 버전이 tensorflow와 호환되는 버전이지 확인이 필요하다.