일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | 6 | 7 |
8 | 9 | 10 | 11 | 12 | 13 | 14 |
15 | 16 | 17 | 18 | 19 | 20 | 21 |
22 | 23 | 24 | 25 | 26 | 27 | 28 |
29 | 30 | 31 |
- 채용공고
- 독서
- ㅂㅂ
- 영화 올드 줄거리
- 코딩
- 벚꽃
- 데이터 분석
- 기사스크랩
- 데이터문해력
- 명상
- 얼음여왕
- 수명예측 인공지능
- 코오롱베네트
- 미라클 모닝
- 니다
- 구글애널리틱스
- 구글애널리틱스4
- GA4
- Google Analytics
- 6시 기상
- 티스토리
- 프로그래머스
- GA
- 감사인사
- 벚꽃개화시기
- 알파줄거리
- Python
- Today
- Total
목록2023/10/26 (7)
Data Analyst KIM
1. 명상 오늘도 명상으로 하루를 시작했다. 미니프로젝트가 끝나고 어제는 몸이 정말 피곤했다. 저녁 7시에 잠이 들어서 아침 6시에 일어났다..... 해야할 것들이 정말 많지만 개운했다... 박태우 강사님의 딥러닝 수업을 정말 열심히 들어야겠다고 다짐을 했고 앞으로 남은 빅데이터 양성과정 수업에 열정을 가지고 치열하게 공부를 해서 최종프로젝트에는 1등을 할 것이다. 2. 오늘의 감사 인사 1. 매일 저와 함께 잠을 자는 행복이에게 감사합니다. 2. 오늘부터 딥러닝 수업을 들을 수 있음에 감사합니다. 3. 미니프로젝트를 발표까지 마칠수 있음에 감사합니다. 3. 오늘 모닝스쿨을 통해 정신을 차렸다. 지금까지 나는 너무 교만했던것 같다. 열심히 달려왔다고 잠깐 걷는 중이라고 생각했는데 사실은 뒤로 걷는 것 같..
이번 스터디에는 장점과 단점을 이야기하는 시간을 가졌다. 하반기 공채 시즌이라 서류 합격 및 면접을 준비하는 사람들이 많다. 미리 사람들과 면접을 준비할 겸 면접항목을 이야기했다. 직무스터디를 잘 활용해서 모의 면접도 하면서 면접도 미리 연습을 해야겠다.
오토인코더(Auto-Encoder, AE)란? 가상의 이미지를 만드는, 또 하나의 알고리즘 GAN과 비슷하지만 다른 성질을 지니고 있음 GAN : 세상에 존재하지 않는 완전한 가상의 것을 만듬 오토인코더 : 입력 데이터의 특징을 효율적으로 담아낸 이미지를 생성 오토인코더 활용 : 영상 의학 분야 등 데이터 수가 충분하지 못한 분야 오토인코더의 학습 과정 소실된 데이터를 복원하기 위해 학습을 시작하고, 입력 데이터의 특징을 효율적으로 응축한 새로운 출력이 나오는 원리 인코더 : 차원 축소 디코더 : 이미지 생성 모델 비지도 학습 : 손실 함수 - rmse 사용 지도 학습 : 손실 함수 - 크로스 엔트로피 오토인코더 모델 구현 from tensorflow.keras.datasets import mnist f..
생성적 적대 신경망(Generative Adversarial Network,GAN) 비지도학습 알고리즘 딥러닝의원리를 활용해 가상의 이미지를 생성하는 알고리즘 적대 (Adversarial, 서로 대립 관계에 있는)이란 단어는 GAN 알고리즘의성격을 잘 표현함 진짜 같은 가짜 이미지를 생성하기 위해 GAN 알고리즘 내부에서는‘적대적’인경합을 진행하기 때문임 생성자(Generator) 가짜 이미지를만들어 내는 공장 초기에는 무작위한 픽셀 값으로 채워진 가짜 이미지로 시작해서 판별 결과에 따라 지속적으로 학습 점차 진짜 같은 가짜 이미지를 생성 페이스북의 AI 연구팀이 만들어 발표한 DCGAN은 생성자 신경망으로 CNN을 사용 CNN 구조의 생성자 패딩 : 이미지 크기를 조절하는 이유는 판별자가 비교할 '진짜..
Attention은 모델이 각 단계에서 서로 다른 입력 요소의 중요성에 가중치를 다르게 부여하는 방법이다. Attention의 구현 원리는 다음의 그림과 같다. 먼저 인코더와 디코더 사이에 층이 하나 생긴다. 새로 삽입된 층에는 각 셀로부터 계산된 스코어들이 모인다. 이 스코어를 이용해 softmax 함수를 사용해서 Attention 가중치를 만든다. 예를 들어 '당신께'라는 자리에 가장 적절한 단어는 'you'라는 것을 학습한다. 이러한 방식으로 매 출력마다 모든 입력 값을 활용하게 하는 것이 어텐션이다. 마지막 셀에 모든 입력이 집중되는 RNN의 단점을 극복해낸 알고리즘이다. Attention을 활용하여 구현을 해보자. !pip install attention from tensorflow.keras...
순환 신경망(RNN, Recurrent Neural Network) 연속된 데이터가순서대로 입력되었을때 앞서 입력받은데이터를 잠시 기억해 놓는 방법 기억된 데이터 당 중요도 가중치를 주면서다음 데이터로 넘어감 모든 입력 값에 이 작업을 순서대로실행. 다음 층으로넘어가기 전 같은 층을 맴도는 것처럼보임 LSTM(Long Short Term Memory) → RNN의 기울기 소실 문제 보완을위해 나온 방법 한 층에서반복되기 직전에 다음 층으로 기억된 값을 넘길지 관리하는단계를 하나 더 추가하는것 1. LSTM을 이용한 로이터 뉴스 카테고리 분류하기 입력된 문장의 의미를 파악하는 것은 모든 단어를 종합하여 하나의 카테고리로 분류하는 작업 로이터 뉴스를 읽고 어떤 의미를 지니는지 카테고리 분류 로이터 뉴스 데이..