FP8 Formats for Deep Learning (NVIDIA/ARM/Intel 합작 논문
Basic Information Paulius Micikevicius, Dusan Stosic, Neil Burgess, Marius Cornea, Pradeep Dubey, Richard Grisenthwaite, Sangwon Ha, Alexander Heinecke, Patrick Judd, John Kamalu, Naveen Mellempudi, Stuart Oberman, Mohammad Shoeybi, Michael Siu, Hao Wu 저 비고: NVIDIA, Intel, ARM 사에서 각잡고 모여서 만든 논문이므로 실용성에 초점을 맞추고 있음 비고2: 상당히 하드웨어 Dependent한 지식으로 논문이 이루어져있음. 정말로 NVIDIA, Intel, ARM 사에서 써먹기 위해 낸 논문이라는..
ReXNet V1 summary
---------------------------------------------------------------- Layer (type) Output Shape Param # ================================================================ Conv2d-1 [-1, 32, 112, 112] 864 BatchNorm2d-2 [-1, 32, 112, 112] 64 Sigmoid-3 [-1, 32, 112, 112] 0 Swish-4 [-1, 32, 112, 112] 0 Conv2d-5 [-1, 32, 112, 112] 288 BatchNorm2d-6 [-1, 32, 112, 112] 64 ReLU6-7 [-1, 32, 112, 112] 0 Conv2d-8 ..
[AI 이론] Layer, 레이어의 종류와 역할, 그리고 그 이론 - 5 (DepthwiseConv, PointwiseConv, Depthwise Separable Conv)
Depthwise Convolutional Layer Depthwise Conv 레이어는 우선 Tensorflow 2.X 에서는 기본 레이어 함수로 지원하나, PyTorch에서는 지원하지 않는다. 그렇다고 만들기 어렵지는 않다. 우선은 Depthwise Conv 레이어를 왜 쓰는지, 그 역할은 무엇인지에 대해 알아보도록 하자. 위 그림처럼, H × W × C(차례대로 Height, Width, Channels)의 Convolutional Ouput을 채널 단위로 분리하여, 각각 Conv Filter를 적용하여 Output을 만들고, 그 결과를 다시 합치면 Conv Filter가 훨씬 적은 파라메터를 갖고 동일한 크기의 Output을 낼 수 있다. (각 Filter에 대한 연산 결과가 다른 Filter로부..