본문 바로가기

반응형

Machine Learning/Dev Env

Jupyter NoteBook 시작 path 바로가기 설정 (윈도우) Jupyter NoteBook 실행시에 일반적으로 윈도우에서 별도의 설정을 하지않으면 'C:\Users\UserName'이 루트 디렉토리로 마운트되어 실행된다. 프로젝트를 진행할때 매번 해당 경로에서 프로젝트가 있는 경로로 이동하는 것은 번거로움이 따른다. 이러한 불편함을 해소하기 위한 방법은 크게 2가지 있다. 1. 시작 경로 바꾸기 1) 시작 경로를 jupyter notebook --generate-config 명령어를 실행 2) 명령어를 통해 생성된 'C:\Users\UserName\.jupyter\'경로에 jupyter notebook --generate-config.py 파일을 텍스트 편집기로 실행 3) 214번줄로 이동하면 아래와 같은 경로와 관련된 문장이 있다. 4) 주석(#)을 제거하고 따.. 더보기
3. PyTorch VS TensorFlow -Torch vs PyTorch? (-)Lua - (+)Python (-)no Autograd -(+) Autograd PyTorch 단점 Torch에 비해 누적된 코드들이 적고 계속 변화하고 있음. PyTorch를 사용하면 됨. -PyTorch vs TensorFlow 가장 큰 차이는 static (computational)graph이냐 dynamic (computational)graph이냐에 있다. TF의 경우 static grpah를 구축한다. 매 iteration 단계에서 기존에 구축된 정적인 동일한 computational graph에 sess.run방식으로 동작(FP)시킨다. PyTorch의 경우 dynamic graph를 사용한다. 주된 차이는 매 iteration을 통해 수행되는 FP에서 .. 더보기
2. Pytorch에서의 추가적인 기능 - Data Loader, torch vision, visdom Data Loader pre-trained data (torch vision) Visdom Data Loader DataLoader는 dataset을 wrapping함으로써, 여러 추상화된 기능을 제공한다. mini-batch, shuffling, multi threading등과 같은 데이터 관련한 작업을 지원한다. custom data 를 필요로 할때엔 Dataset 클래스를 정의해서 사용하면 된다. 해당 클래스에선 어떤 source든지, 원하는 특정 type의 데이터로 읽는 방법을 정의해야한다. 이후에 이를 DataLoader로 warpping 하고 학습시키면 된다. DataLoader object를 순회하는 식으로 for 문을 설계하면, 매 iteration마다 mini-batch를 하게 되는 효과.. 더보기
1. Pytorch 기본 용어 및 2-layered NN 구성- Tensor, Variable, Module PyTorch는 기본적으로 크게 3개의 추상화된 객체를 제공합니다. Tensor : n-d array (numpy처럼 작성), GPU에서 동작 (Deep Learning과 직접적인관련은 없음) => numpy array유사 Variable : computational graph의 Node역할을 함. data나 gradient를 저장 => tensor flow의 Tensor, Variable, Placeholder 유사 Module : NN에서의 layer에 해당. 상태나 학습가능한 weight을 저장 => (조금 더 high level의 문법)tf.layers, TFSlim또는 TFLearn...등과 유사 * Pytorch 0.4가 릴리즈된 이후로는 Tensor가 Variable을 완전히 대체하여 현재는.. 더보기

반응형