목록딥러닝 (10)
Hayden's Archive
www.aiexpo.co.kr/page/sub1_1 국제인공지능대전 전시회 안내 전시회 안내AI EXPO KOREA 2020 www.aiexpo.co.kr 오늘 점심 먹고 코엑스에서 하는 국제인공지능대전에 다녀왔다. 2020 국제인공지능대전은 오늘부터 목요일까지 3일에 걸쳐서 개최되며 코엑스 D홀에서 열린다. 온라인사전등록의 경우 무료로 입장 가능하지만 현장등록일 경우에는 10,000원을 내고 입장 가능하다. 현장 등록을 하면 목걸이를 주는데 부스를 방문할 때마다 저 목걸이를 보여주면서 바코드를 찍으면 된다 (코로나 때문인 듯하다) 현장에서 나눠준 엑스포 및 관심있는 부스 팜플렛도 하나씩 챙겨왔다. 사진을 여러장 찍었는데 인상 깊었던 부스 위주로 포스팅해보겠다. 들어가자마자 입구에서 봤던 사물 인식 AI..
코랩 설치 및 설명 참고 : https://theorydb.github.io/dev/2019/08/23/dev-ml-colab [Colab] Google Colab (코랩) 환경설정 및 사용법 개요 파이썬을 활용한 머신러닝의 첫 관문! 구글 Colab(코랩)의 환경구성 및 기본 사용법을 다룬 포스트입니다. 목차 Colab이란 무엇인가? Colab 환경설정 Colab을 활용한 간단한 예제 작성 Colab & Markdow theorydb.github.io 환경 설정 코드를 보기 전 이해를 돕기 위한 그림 Loss Function - MSE (정량화된 값일 때) - Cross Entropy Loss (분류일 때) 1장도 시간 엄청 많이 걸리는데 6만장 동시에 못함. 그래서 쪼개서 돌려야 하는데 그게 batc..
↑ 0번째 이미지에 대한 정보값임. 0~49999번째 이미지(총 5만개)가 있음. [3, 32, 32]을 [32, 32, 3]으로 바꿔줘야 위와 같이 이미지가 나타남. 0번째 이미지는 라벨이 6이었는데 CIFAR-10에서 6번째 인덱스는 개구리인 것을 알 수 있다. Batch Size를 정해서 돌려보기 - Batch Size 개념 그런데 50000을 64로 나누면 나누어 떨어지지 않음. 나머지가 존재하게 되는데 이걸 버릴 것인지 함께 돌릴 것인지는 drop_last로 정함.(False가 디폴트. 버리지 않고 함께 돌림)
뉴럴 네트워크 Neural Network 인간의 신경세포를 본떠서 만듦. 수상돌기로부터 정보(x값) 입력받아서 축을 통해서 연결되고 결과(y값)을 다시 입력값으로 넘김 특정한 값 이상만 받아들이고 그 밑의 값은 무시 -> 활성함수. 각각의 신념 체계에 따른 다른 가중치 부여 -> Weight 뉴런 세포에 들어오는 값에 대한 공통적인 의견 -> Bias 역치값 이상이 되면 출력값으로 연결, 자극을 인지할 수 없는 값이 들어오면 출력값으로 연결X -> 활성화함수 Sigmoid Activation Function => 선형을 비선형으로 만들 수 있는 tip이 됨. 선형적인 질서가 무너지게 됨. 인공신경망은 생물학적 신경망을 본떠서 만들어짐. 여러 자극이 들어왔을 때 수상돌기를 통해서 자극들이 신경 세포로 들어..
파이토치(Pytorch) 설치 참고 enjoysomething.tistory.com/40 파이토치 문서 참고 pytorch.org/docs/stable/index.html 딥러닝 라이브러리는 텐서플로우, 파이토치 두 축. 파이토치는 2017년에 나왔는데, 텐서플로우보다 파이토치가 더 최근에 나왔고 개발자 포럼도 활발하다. 파이토치가 텐서플로우보다 더 속도가 빠르고 직관적이다. 케라스를 많이 쓰는데 케라스는 쉽고 간단함. 전문가용으로는 부족. CPU에서 돌릴 때 시간 오래 걸릴 경우 GPU로 돌려야 함. 추후 구글에서 무료로 제공하는 GPU를 쓸 것. Pytorch 에서의 Gradient Descent Tensor Type - tensor(), as_tensor() Numpy 배열을 Tensor 타입으로 ..
Optimization(최적화) / Loss Function(손실함수) / Gradient Descent(경사하강법) / Back Propagation(오차역전파) => 다 연결된 개념 * 요점정리 Optimization - 하강하는 방법 Loss Function - 현재 고도를 측정하는 것 Gradient Descent - Optimization 중의 하나. Back Propagation 방법을 이용해서 하산하는 Optimization - 정확한 방향을 스텝마다 계산하기 때문에 Slow, 하지만 Global Minimum까지 정확하게 찾아간다. - Learning Rate는 기본적으로 0.1을 많이 사용함. Back Propagation - 가장 가파르게 내려갈 수 있는 방향을 정하는 것. 이 때 미분..
CIFAR-10는 5만개의 Training Image가 있고 만개의 Test Image가 있음. 각각의 이미지는 32×32×3 * 32×32×3의 의미 32X32 => 이미지 세로와 가로(보통 정사각형으로 주어짐) 3 => 채널 수. (흑백은 채널이 1개, 칼라는 채널이 3개, RGB) 입력값인 X로 이미지가 들어옴. MNIST - 28X28X1 (0~9 손글씨 숫자. 검정색 바탕에 흰색글씨) 10개의 카테고리 랜덤함수 돌리면 10%의 확률 정답이 나오겠지만 딥러닝 알고리즘 돌리면 정확도 99.8%(사람보다 더 잘 맞힘) MNIST-Fashion CIFAR10 - 32X32X3 -- 정확도 99.3% 10개의 카테고리 MNIST보다 정보량이 더 많다.(=복잡한 입력이다) CIFAR100 - 정확도 93%..
2020 유망 인공지능 스타트업 100 출처 : http://scimonitors.com/ai-100-2020-%EC%9C%A0%EB%A7%9D-%EC%9D%B8%EA%B3%B5%EC%A7%80%EB%8A%A5-%EC%8A%A4%ED%83%80%ED%8A%B8%EC%97%85-100%EA%B3%B3-%EC%9C%A0%EB%8B%88%EC%BD%98-10-%ED%8F%AC%ED%95%A8/ 2017년에는 한국 회사로 Lunit이 유일하게 100위 안에 든 적이 있다 ( http://www.techforkorea.com/2017/01/18/lunit-about-to-run-it-in-2017-the-only-korean-company-in-the-ai100-by-cb-insights/ ) 참고 : https..
머신러닝이란? 머신러닝을 하기 위한 핵심적인 3가지 요소 AI / Machine Learning / Deep Learning 지도학습 / 비지도학습 / 강화학습 Training Model / Inference Model(Test Model) / Underfitting / Overfitting Forward Propagation Back Propagation 하이퍼 매개 변수(Hyperparameter) 머신러닝 하면서 쓰게 되는 파이썬 오픈소스 데이터셋 사람이 프로그램을 짤 때는 explicit하게(명료하게, 명시적으로) 짜야 함. 기계가 학습할 수 있는 능력을 부여. 우리 입장에서는 기계가 어떻게 학습하는지 explicit하게 알 수 없음. 기계가 어떻게 하는지 모르겠..
인공지능 => 파이썬, 수학 image generator하는 기술 -> 상상할 수 없는 수학적 공식 들어감. back propagation -> 딥러닝 전체 3~4번째로 어려움. 수학. 머신에서 어떻게 작업하는지 알 수 없음... Black Box => AI 깊게 들어가면 이런 이유로 학습에 어려움이 있음. => But 이런 것들 없이 접근 가능. 걸림돌이 아님. 만만하게 보지 말고 천천하게 갈 것. 한번에 깊이 못 봄. 코드 이해한다고 해서 이해가 안 됨. 코드는 간단하지만 그 안에서 작업들이 일어나는지에 대한 개념을 머릿속에서 그려야 함. 내부적으로 어떻게 돌아가는지 기본적인 것들을 최대한 이해해야 함. 머신러닝 파트, 딥러닝 파트 둘 다 인공지능인데 머신러닝의 서브셋이 딥러닝. 더 깊게 들어감. 이..