ML 67

Decoupled Neural Interfaces Using Synthetic Gradients 요약

Neural networks and the problem of locking 일반적인 모델의 경우 한번에 네트워크의 시퀀스를 실행하고 gradient는 backpropahation 될 것이다. 아웃풋이 얻어진 뒤에 역전파 되면서 업데이트 되는게 일반적인데 여기서 문제가 발생하는데 전파가 일어나는동안 layer1은 계속 잠겨있다 LOCK 되어 있다는것이다. 간단한 네트워크의 경우에는 문제가 없다. 하지만 복잡하고 불규칙한 타임 스케일에서 동작하는 네트워크에서는 문제가 발생할 수 있다. 모듈이 너무 심하게 경사 역전파가 일어나기 전까지 시간을 소비할 수 있고 다루기도 힘들 수 도 있다. 우리는 그래서 인터베이스를 분리할것이다. 독립적으로 업데이트 될수 있고 locked되지 않는다. So, how can on..

ML 2020.11.06

수학스터디 [PCA] [행렬 미분법칙][범함수,변분법, 오일러-라그랑주방정식]

수학팀 구예인 김정민 김경태 2020/11/04 17:30시~19시 [팀즈 미팅] PCA www.youtube.com/watch?v=Xx5QffUjuHc&feature=youtu.be [구예인] PCA가 무엇인지 왜 쓰는지에 대해서 알아보았습니다. PCA는 기본적으로 차원축소를 해주는것 차원축소 과정에서 데이터 손실이 적게 해주기 위해서는 위의 방정식을 만족해야한다. (자세한 내용은 영상 참조) 주성분 분해가 무엇인지?' 의문점이 남아서 다음 발표에 발표할 생각입니다. 행렬의 미분 www.youtube.com/watch?v=W9BQ1bdE6rM [김경태] 각종 행렬의 미분법칙에 대해서 알아본다. 역행렬은 cost가 많이 드는 연산이므로 전치행렬과 미분을 통해서 역행렬을 만들 수 있다. 범함수,변분법, 오..

수학스터디 [심파이(SymPy)로 공부하는 미적분]

수학팀 구예인 김정민 김경태 2020/10/21 18시~19시 구예인 김정민 김경태 www.youtube.com/watch?v=q_v33yYh5ow Relu xx = np.linspace(-10, 10, 100) plt.plot(xx, np.maximum(xx, 0)) plt.title("max(x,0) 또는 ReLU") plt.xlabel("$x$") plt.ylabel("$ReLU(x)$") plt.show() 로지스틱함수 def logistic(x): return 1 / (1 + np.exp(-x)) xx = np.linspace(-10, 10, 100) plt.plot(xx, logistic(xx)) plt.title("로지스틱함수") plt.xlabel("$x$") plt.ylabel("$\si..

Resnet

CNN 과 Fully Network Layer 의 차이점 s는 output featuremap을 의미하고 , x는 input featuremap을 의미한다. fully connected layer의 경우 input이 output featuremap의 픽셀값에 다 반영이 되지만, CNN의 경우 input의 일부만이 반영이 된다. CNN은 weight를 공유한다. 같은 색깔은 같은 weight를 의미한다. ResNet이 왜 나오게 되었는가? 층이 깊어질 수록 vanishing gradient 문제가 발생하여 성능이 오히려 저하된다. 이문제를 해결하기 위해서 기존의 layer를 파라미터 없이 연결하여 성능저하를 막는다. Residual Block 을 BottleNeck으로 왜 교체하는가? Net 상에서 Par..

ML 2020.10.09

Vggnet 논문 리뷰

1 INTRODUCTION Convolutional Networks (ConvNets)는 최근에 대규모 이미지 및 비디오 인식 (Krizhevsky et al., 2012; Zeiler & Fergus, 2013; Sermanet et al., 2014; Simonyan & Zisserman, 2014)에서 큰 성공을 거두었으며 ImageNet (Deng et al., 2009)과 같은 대규모 공공 이미지 저장소로 인해 가능 해졌습니다. GPU 또는 대규모 분산 클러스터와 같은 성능 컴퓨팅 시스템(Dean et al., 2012). 특히, 심도 있는 시각 인식 아키텍처의 발전에 중요한 역할을 하는 것은 고차원 얕은 특징 인코딩(Perronnin et al., 2010)으로부터 몇 세대에 걸친 대규모 이미..

ML 2020.10.09

ALEXNET 리뷰&번역

1 Introduction 객체 인식에 대한 현재 접근 방식은 기계 학습 방법을 필수적으로 사용합니다. 성능을 개선하기 위해 더 큰 데이터 세트를 수집하고 더 강력한 모델을 배우고 과적 합을 방지하기위한 더 나은 기술을 사용할 수 있습니다. 최근까지 레이블이 지정된 이미지의 데이터 세트는 수만 개의 이미지 (예 : NORB [16], Caltech-101 / 256 [8, 9] 및 CIFAR-10 / 100 [12]) 정도로 비교적 작았습니다. 간단한 인식 작업은 특히 레이블 보존 변환으로 보강 된 경우이 크기의 데이터 세트로 매우 잘 해결할 수 있습니다. 예를 들어, MNIST 숫자 인식 작업에 대한 현재 최고 오류율 (

ML 2020.09.25

수학스터디 [넘파이(NumPy)로 공부하는 선형대수]

2020/09/23 17시~18시 www.youtube.com/watch?v=97M-sWHjX_g 2장을 각자 리뷰해오고 코드도 실행해오면서 준비한 부분들에 대해서 설명하고 영상으로 남겨봤습니다. datascienceschool.net/view-notebook/04358acdcf3347fc989c4cfc0ef6121c/ Data Science School Data Science School is an open space! datascienceschool.net 자료는 위의 사이트를 참고 했습니다.

git 을 간단하게 알아보자!

Git이란 무엇인가? 기존의 관리 방식 Git의 관리 방식을 알아보자 파일이 달라지지 않았으면 Git은 성능을 위해서 ​ 파일을 새로 저장하지 않는다. ​ 단지 이전 상태의 파일에 대한 링크만 저장한다.​ Git은 데이터를 스냅샷의 스트림처럼 취급한다.​ Rerepository? ==> 저장소는 어떤 공간인가? https://gitlab.com/g0bqwch 리모트 저장소는 인터넷이나 네트워크 ​ 어딘가에 있는 저장소를 말한다. ​ 다른 사람들과 함께 일하는 것은 ​ 리모트 저장소를 관리하면서 ​ 협업의 장소라고 할 수 있다. Git 저장소 만들기 Git 저장소를 만드는 방법은 두 가지다. 기존 프로젝트나 디렉토리를 Git 저장소로 만드는 방법과 다른 서버에 있는 저장소를 Clone 하는 방법 더보기 기..

ML/Git 2020.09.23

수학스터디 활동 계획 [데이터 사이언스]

기존 스터디는 너무 수학적으로만 파고들어서 딥러닝과는 거리감이 있었고 동아리원들이 듣기에도 거부감이 많았다고 생각합니다. 그래서 실습과 병행할 수 있는 책 한권을 가져왔습니다. 기존 스터디와는 다르게 가벼운 마음으로 진행할것입니다. 목차 더보기 0. 파이썬 설치와 사용법 00.01 커맨드 라인 인터페이스 00.02 파이썬 설치하기 00.04 파이썬 패키지 설치하기 00.05 데이터 분석용 파이썬 패키지 소개 00.06 IPython 및 주피터 설정 00.03 파이썬 처음 사용하기 00.07 구글 코랩 사용법 1장 수학 기호 01.00 1장 수학 ᄀ..