일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | ||||||
2 | 3 | 4 | 5 | 6 | 7 | 8 |
9 | 10 | 11 | 12 | 13 | 14 | 15 |
16 | 17 | 18 | 19 | 20 | 21 | 22 |
23 | 24 | 25 | 26 | 27 | 28 |
- 개성국밥
- mp4fpsmod
- PersistenceContext
- 깡돼후
- terminal
- table not found
- JanusWebRTC
- kotlin
- k8s #kubernetes #쿠버네티스
- 자원부족
- tolerated
- 코루틴 컨텍스트
- Spring Batch
- JanusWebRTCServer
- vfr video
- Value too long for column
- 오블완
- 달인막창
- JanusGateway
- PytestPluginManager
- 티스토리챌린지
- preemption #
- 겨울 부산
- 코루틴 빌더
- 헥사고날아키텍처 #육각형아키텍처 #유스케이스
- pytest
- JanusWebRTCGateway
- python
- taint
- VARCHAR (1)
목록분류 전체보기 (583)
너와 나의 스토리
![](http://i1.daumcdn.net/thumb/C150x150/?fname=https://blog.kakaocdn.net/dn/GlwjG/btqxbBt1DdU/lO0ZYv5VQIb2EmjJ9VQZk1/img.png)
Wikipedia 참고 ApEn 통계에서 ApEn(approximate entropy)는 time series 데이터에 대한 규칙성의 양과 변동성의 예측 불가능성을 정량화하는데 사용된다. -> 규칙성의 정도, 불확실성의 정도 시계열에서 반복되는 변동 패턴의 존재는 그러한 패턴이 없는 시계열보다 더 예측 가능하게 한다. ApEn은 유사한 관찰 패턴이 추가로 유사한 관찰에 이어지지 않을 가능성을 반영한다. 많은 반복 패턴을 포함하는 시계열은 상대적으로 작은 ApEn을 가지고, 덜 예측 가능한 프로세스는 더 높은 ApEn을 가진다. ApEn's algorithm Step1. 시계열 형태의 데이터 $u_{1}$, $u_{2}$,...,$u_{n}$. 시간의 균등한 간격으로 측정한 N개의 원시 데이터 값이다. S..
![](http://i1.daumcdn.net/thumb/C150x150/?fname=https://blog.kakaocdn.net/dn/ceCaDM/btqw85QYlAY/FIesJvTZkQY40llahNQ940/img.png)
Keras Keras Decumentation참고 ● Sequential - keras.models.Sequential() - Neural Network를 초기화하는데 필요 - model 생성자 ● add - models.add() - sequential로 만든 모델에 특성 넣어줌 ● Dense - keras.layers.Dense(,,,) - input_dim: 입력 뉴런의 수 설정 - init: 가중치 초기화 방법 설정 (uniform / normal) - activation: 활성화 함수 설정 (linear / relu / sigmoid / softmax) - 입력 뉴런과 출력 뉴런을 모두 연결해준다. - 참고 [출처: 데이터 사이언스 스쿨] ● GRU - keras.layers.GRU() - LS..
![](http://i1.daumcdn.net/thumb/C150x150/?fname=https://blog.kakaocdn.net/dn/bjKJ1Z/btqDFq1pDmp/iOonk30Tu72um9neGhUpYK/img.png)
* '핸즈온 머신러닝' 책의 내용을 기반으로 작성 ● 퍼셉트론(Perceptron) 가장 간단한 인공 신경망 구조 중 하나 TLU(threshold logic unit)라는 조금 다른 형태의 인공 뉴런을 기반으로 한다. 입력과 출력이 어떤 숫자고 각각의 입력 연결은 가중치와 연관되어 있다. 층이 하나뿐인 TLU로 구성된다. ● TLU 간단한 선형 이진 분류 문제에 사용할 수 있다. 입력의 선형 조합을 계산해서 그 결과가 임곗값을 넘어서면 양성 클래스를 출력하고 그렇지 않으면 음성 클래스를 출력한다. 여기에 편향 특성이 더해진다. ● 다층 퍼셉트론(Multi-Layer Perceptron) - MLP 여러 퍼셉트론을 쌓아올려 일부 제약을 줄일 수 있는데, 이런 신경망을 MLP라고 한다. [입력층 하나 + ..
문제: https://www.acmicpc.net/problem/2933 문제 설명: 1. 막대를 [왼쪽->오른쪽] [오른쪽->왼쪽] 방향을 바꿔가며 던진다 2. 막대가 미네랄(x)를 만나면 그 미네랄은 파괴되고 막대는 멈춘다 ( 'x' -> '.' ) 2. 창에 맞아 x가 .으로 바뀌었을 때, 상하좌우로 열결된 미네랄(x)의 덩어리(상하좌우로 인접한 미네랄들)가 공중에 떠 있으면(바닥에 붙은 x와 연결되지 않았으면) 그 미네랄을 바닥 혹은 다른 x 위에 접하도록 내린다 문제 풀이: 1. 창에 맞은 x를 .로 만들기 2. bfs를 돌려서 현재 클러스터(덩어리)가 공중에 떠 있는지 확인 3. 만약 떠 있다면, 그 덩어리를 한 칸씩 전부 내려보고 밑에 닿는 것이 있으면 멈추고 아니면 한 칸 더 내리고 .....
A - Three Piles of Candies 그냥 반띵 소스코드: ...더보기 int n; int main() { ios::sync_with_stdio(false); cin.tie(NULL); cout.tie(NULL); cin >> n; while (n--) { long long q, w, e; cin >> q >> w >> e; cout n; while (n--) { int q, w; cin >> q >> w; v.clear(); for (int i = 0; i > a; if(a%2) v.push_back(i+1); } int sz = v.size(); if (sz < w||(sz % 2 == 0 && w % 2)||(sz % 2&& w % 2==0)) ..
● One-hot (vector) 데이터에 고유한 인덱스(숫자)를 붙여서 분류 자신이 가진 인덱스에서는 1, 나머지는 0 ex) 딸기-0 사과-1 바나나-2 키위-3 수박-4 사과 -> [0,1,0,0,0] ● 상수 - tf.constant(): 상수 선언 ex) x=tf.constant(1) # 상수선언 x=1 - tf.zeros(,,): 모든 원소의 값이 0인 텐서 생성 ex) tf.zeros([2,3], float32) => [ [0,0,0], [0,0,0] ] - tf.ones - tf.fill(,,): value 값으로 채워진 텐서를 생성함 - tf.constant(,,,): 상수 텐서 생성 - tf.range(,,,): start~limit 사이에서 delta 간격으로 뽑아낸 정수들의 리스트를..
![](http://i1.daumcdn.net/thumb/C150x150/?fname=https://blog.kakaocdn.net/dn/UtheQ/btqw2zRGk7M/PTeDbflmQP3hkEIPlNPaU1/img.png)
kaggle(https://www.kaggle.com/crawford/computer-network-traffic)에 있는 데이터 셋으로 실습하였습니다. Date: IP => 08-24(235): 1 / 09-04(246): 5 / 09-18(260): 4 / 09-26(268): 3, 6 * kernels을 참조 RNN(Recurrent Neural Network) 미리 공부하고 보기! 1. import & data load import numpy as np #linear algebra import pandas as pd #data processing, csv file I/O import matplotlib.pyplot as plt import seaborn as sns from subprocess i..
![](http://i1.daumcdn.net/thumb/C150x150/?fname=https://blog.kakaocdn.net/dn/pbQ7y/btqw2zXH9Ve/LKv5jiBjPAPLmwmi7YZOH1/img.png)
Terry TaeWoong Um님의 영상과 Colah의 블로그를 기반으로 정리하였습니다. (+ 추가 자료) 기본 NN 구조 RNN 구조 1. RNN은 상당히 deep한 구조이다 $x_{0}$가 $h_{t}$를 출력하는데 영향을 미치려면 굉장히 많은 단계를 거치게된다. 2. exploding and vanishing gradient problem 여기서 $x_{0}$를 통해 나온 결과 A의 가중치를 작게 하면 이는 점점 작아져 나중에는 거의 영향력이 사라진다 반대로 가중치를 처음에 크게 잡으면 나중에 이 값이 너무 커지게 된다. 즉, 너무 예전 결과를 가져와 쓰는게 힘들다 하지만 LSTM는 이런 문제가 발생하지 않는다! 즉, 기존 RNN의 경우 정보와 정보 사이의 거리가 멀면 초기의 weight 값이 유지..