전체 글

전체 글

    [CV] AlexNet(2012) 논문을 code로 구현 해보자 (Keras, PyTorch)

    [CV] AlexNet(2012) 논문을 code로 구현 해보자 (Keras, PyTorch)

    이번 포스팅에서는 지난번 포스팅했던 AlexNet을 Keras와 PyTorch로 각각 구현하고 적용해보고자 합니다. 사실 저는 Keras에 훨씬 익숙하기에, 메인 code들은 Keras로 작성하겠습니다. 이론 설명은 지난번 포스팅을 참고해주세요! 2021.06.23 - [딥러닝(DL) 📈/CV] - [Vision] AlexNet(2012)의 구조와 논문 리뷰 [Vision] AlexNet(2012)의 구조와 논문 리뷰 오늘은 Deep한 CNN의 발전에 가장 큰 영향을 준 AlexNet(2012)에 대해 포스팅하고자 합니다. AlexNet은 2012년에 개최된 ILSVRC(ImageNet Large Scale Visual Recognition Challenge) 에서 우승을 차지한 아키텍처.. daeun-..

    [CV] AlexNet(2012)의 구조와 논문 리뷰

    [CV] AlexNet(2012)의 구조와 논문 리뷰

    오늘은 Deep한 CNN의 발전에 가장 큰 영향을 준 AlexNet(2012)에 대해 포스팅하고자 합니다. AlexNet은 2012년에 개최된 ILSVRC(ImageNet Large Scale Visual Recognition Challenge) 에서 우승을 차지한 아키텍처로, 이전의 모델인 LeNet-5보다 더 Deep한 CNN 구조를 도입해 화제가 되었습니다. (여기서 LeNet-5은 정말 Simple한 초기 CNN 모델을 뜻합니다. 자세한 설명은 여기를 참고해주세요) LeNet-5의 등장 이후, 대용량의 이미지 data를 다루기 위해서는 더 큰 학습 역량(a large learning capacity)을 가진 아키텍처가 필요했습니다. 다음 그림은 LeNet-5과 AlexNet의 아키텍처를 비교해 나..

    [CV] ResNet - Residual Connection(잔차연결)

    [CV] ResNet - Residual Connection(잔차연결)

    📊📈논문 참조 0. 등장 배경 VGG16, 19 : 3*3 filter를 이용해 레이어의 깊이를 늘려 우수한 성능을 보였다. 특히 CNN 계열에서 레이어가 깊어지면 특징이 더 풍부해지기 때문에, CV 분야에서의 네트워크 깊이는 많은 장점을 가져와주었다. 사람들은 따라서 VGG에 따라 깊이가 깊어지면 더 높은 성능을 낼 것이라고 생각하였다. 하지만 점차 레이어가 깊어지면 Vanishing Gradient와 같은 문제가 발생함을 인지하였으며, 따라서 본 논문에서는 레이어의 깊이가 깊어질수록, input층에 가까운 은닉층이 희미해지기에 학습에 도움이 되지 않을수도 있음을 주장하였다. 본 논문은 레이어의 깊이에 따른 문제를 종합적으로 지적하고 있다. 1. 잔여블록 (Residual Block) 실제로 우리가 원..

    자주 쓰이는 기본적인 정규표현식(Regex) 정리

    자주 쓰이는 기본적인 정규표현식(Regex) 정리

    정규표현식 확인할 수 있는 사이트 regexr.com/5mhou 여기서 \는 back slash를 의미 code 의미 code 의미 gr(e|a)y e또는 a로 이루어진 문자 gr[ead]y 대괄호 중 하나라도 만족하는 문자 찾기 [a-zA-z0-9] 모든 소문자, 대문자, 숫자를 모두 찾음 [^a-zA-z0-9] 뒤 집합을 제외한 나머지 것 (^) gra?y 물음표 앞 a가 있거나 없는 경우 (zero or one) gra*y * 앞 a가 있거나, 없거나, 많거나를 찾음 (zero or more) gra+y 하나 또는 많이, 없는 경우는 포함X (one or more) gra{2}y a가 두번나오는 경우만 선택 gra{2,3}y a가 최소 2번, 최대 3번 나오는 경우 선택 \bYa 맨 앞에서 쓰이는 ..

    [자료구조] - (2) 스택(Stacks) with Python

    [자료구조] - (2) 스택(Stacks) with Python

    스택(Stacks) 역시 추상적 선형 자료 구조 중 하나이다. 본 게시글은 Python 코드로 작성되었습니다. 1. 스택의 구조 기본적으로 스택은 넣을 때는 한쪽 끝에서 밀어넣어야 하고(push), 꺼낼 때에는 같은 쪽에서 뽑아 꺼내야한다.(pop) 간단히 그림으로 나타내면 다음과 같다. 이와 비슷한 선형 자료구조 큐(Queue)는 좀 다르다. 큐는 '선입선출'의 구조로서, 먼저 들어간 요소가 가장 먼저 나오는 구조이다. 기본적으로 스택은 한쪽에서 꺼내고 빼고를 하는 반면, 큐는 한쪽에서 들어가면 다른쪽에서 나온다! 그리고 스택은 가장 마지막에 들어간 요소가 가장 먼저 나온다 (후입선출) 스택에는 정해진 저장 공간이 있다. 따라서 비어있는 스택에서 원소를 꺼내려 하거나, 꽉찬 스택에 데이터 원소를 넣으려..

    [Quant] 기초 금융 지식 정리(1) - 증권, 채권, 주식

    [Quant] 기초 금융 지식 정리(1) - 증권, 채권, 주식

    0. 증시 증권시장이라는 뜻 1. 증권 - 어떤 증거가 되는 문서나 서류 (권이 문서라는 뜻임) - 유가 증권 : 가치가 있는 뭔가를 증명하는 종이. 과거에는 종이였으나 요즘은 전자형태로 전환 1) 화폐 증권 : 가장 흔히 볼 수 있는 형태 ex) 지폐(한국은행권 : 이 돈에 대해 한국은행에 권리가 있음을 증명하는 것), 상품권, 쿠폰, 수표 2) 상품 증권 : 물건의 권리를 명시한 증권 ex) 배에 실려져 있는 운송된 화물들의 소유권이 나에게 있음을 보장 3) 자본 증권 : 자본이 나에게 있음을 증명하는 문서 ex) 채권, 주식, 수익증권, 선물옵션 → 증권 시장 : 자본 증권을 거래하는 시장 (그 안에 주식시장이 포함됨) 2. 채권(=본드) 1) 정의 - 빚문서 (빌린 돈 얼마를 언제까지 갚는지, 이..

    [STAT & DL] 딥러닝의 전반적 구조에 대한 통계적 해석

    [STAT & DL] 딥러닝의 전반적 구조에 대한 통계적 해석

    이 글은 고려대학교 통계학과 박유성 교수님의 '딥러닝을 위한 통계적 모델링' 강의를 바탕으로 재구성되었습니다. 딥러닝과 통계적 모형의 구조는 매우 유사하지만, 다른점은 은닉층의 존재 여부이다. 따라서 은닉층의 설계에 따라 딥러닝 모형이 결정된다고 봐도 무방하다. 딥러닝은 특성변수들의 선형 결합을 비선형 변환해 목적변수를 확률적으로 맞추는 전형적인 통계적 모형이다. 이러한 과정을 통해 특성변수(x)를 변형시키고, 이러한 작업은 목적변수(y)를 더 잘 예측하게 한다. 다만 여기에 '은닉층(Hidden Layer)'의 개념이 포함된다는 것! 그래서 이 포스팅에서는 통계적 모형과 전반적인 딥러닝 구조의 유사성과 차이점에 대해 비교 대조해보고자 한다. 딥러닝을 공부해본 이래로 통계적인 해석을 한 글은 찾아보기 어..

    [자료구조] (1) - 연결리스트(Linked List) with Python

    [자료구조] (1) - 연결리스트(Linked List) with Python

    연결리스트는 대표적인 추상적 자료구조(Abstract Data Structures) 중 하나이다. 본 게시글은 Python 코드로 작성되었습니다. 1. 단순 연결리스트의 기본 구조 각 연결리스트는 Node로 구성되어있고, Node안에는 data와 link로 구성되어있다. 안에 들어있는 data는 그림에 나와있는 정수형 말고도 문자, 레코드 등 여러 구조가 가능하다. Node를 코드로 구성해보면 다음과 같다! class Node: def __init__(self, item): self.data = item # data self.next = None # next link (다음 인자를 가리킴) 여기서 next는 다음 노드에 접근하는 방법이다. 예시 ) L.head == a a.next == b b.next ..