본문 바로가기

IT183

백준(BOJ) 2665 미로만들기 * # BFS 어렵지않은 BFS 문제이다. 유의해야 할 점은 방문한 칸에 대한 값 저장만 잘 해주면 될 듯! #include #include #include #include #define MAX 55 #define INF 2123456789 using namespace std; typedef long long ll; typedef pair pi; // p는 좌표값, black은 화이트로 만든 칸의 갯수 struct st{ pi p; int black=0; }; int n; int dx[4]={0,1,0,-1},dy[4]={1,0,-1,0}; // map은 입력 받아 온것 , visit은 해당 좌표까지 오는데 black의 최소 값 int map[MAX][MAX],visit[MAX][MAX]; char str[.. 2019. 3. 13.
[논문 분석] SRGAN(Super-Resolution Using a Generative Adversarial Network) 논문 분석 및 테스트 SRGAN 논문 링크 : https://arxiv.org/abs/1609.04802SRGAN을 이해하기 전에 VDSR, ESPCN을 이해한다면 조금 더 SRGA을 이해하는데 도움이 될 것 같다.SRGAN의 목적을 간단하게 이해한다면, VDSR, ESPCN과 같이 기존의 Super Resolution의 경우 Loss를 평가할 때 psnr 방식을 사용하였다. 하지만 PSNR이 높은 사진일 수록 사람 눈에 선명하게 보이는 것은 아니다. -> 즉, 사람 눈으로 보기에 선명하게 보이게 만들려는 목적과 기존의 평가 방식은 맞지 않는다.SRGAN을 사용하게 되면 psnr은 조금 낮더라도, 사람 눈에 보다 정확하게 보이게 학습을 하게 된다.단점 : "GAN을 사용하다 보니 이미지가 크게 변하지 않더라도, 질감이나 느낌.. 2018. 11. 25.
[section_3_lab] Gradient descent algorithm 실습 Gradient descent algorithm 실습코드1을 간략하게 코드2로 표현할 수 있다.# 코드 1 # learning_rate : w를 얼만큼씩 옮길것인지learning_rate = 0.1# cost funtion을 미분한 수식gradient = tf.reduce_mean((W * X - Y) * X)# 다음으로 이동 될 w값 -> descent에 저장descent = W - learning_rate * gradient# w를 descent로 updateupdate = W.assign(descent) # 코드 2 # Minimize: Gradient Descent Magicoptimizer = tf.train.GradientDescentOptimizer(learning_rate=0.1)train.. 2018. 11. 8.
[에러 슈팅] conda 파이썬 버전 변경시 (conda install python=3.6.6) conda install python=3.6.6 버전 설치 시 다음과 같은 에러가 발견되었을 시 active environment : None user config file : /home/nicholasc/.condarc populated config files : conda version : 4.4.7 conda-build version : not installed python version : 2.7.14.final.0 base environment : /home/nicholasc/anaconda2 (read only) channel URLs : https://repo.continuum.io/pkgs/main/linux-64 https://repo.continuum.io/pkgs/main/noarch.. 2018. 11. 6.