일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | ||
6 | 7 | 8 | 9 | 10 | 11 | 12 |
13 | 14 | 15 | 16 | 17 | 18 | 19 |
20 | 21 | 22 | 23 | 24 | 25 | 26 |
27 | 28 | 29 | 30 |
- JanusGateway
- k8s #kubernetes #쿠버네티스
- pytest
- tolerated
- python
- PersistenceContext
- VARCHAR (1)
- taint
- JanusWebRTCGateway
- 자원부족
- 깡돼후
- 코루틴 빌더
- vfr video
- Spring Batch
- 코루틴 컨텍스트
- JanusWebRTCServer
- table not found
- terminal
- 오블완
- JanusWebRTC
- kotlin
- 헥사고날아키텍처 #육각형아키텍처 #유스케이스
- 달인막창
- 겨울 부산
- mp4fpsmod
- preemption #
- Value too long for column
- 티스토리챌린지
- 개성국밥
- PytestPluginManager
목록Data Analysis (88)
너와 나의 스토리

[출처] [Dataset] 1. importing import pandas as pd import numpy as np import matplotlib.pyplot as plt df=pd.read_csv('./input/Position_Salaries.csv') 2. Asigning the input and output values X=df.iloc[:,1].values y=df.iloc[:,2].values 3. Fitting Random Forest Regression to the dataset from sklearn.ensemble import RandomForestRegressor regressor = RandomForestRegressor(n_estimators = 10, random_state..

Ensemble learning 참조 Ensemble method: 여러개의 머신 러닝 알고리즘으로부터 예측을 결합하는 기술 Types of Ensemble Learning (model combining method) Boosting AdaBoost / Gradient Boost Bosststrap Aggregation (Bagging) Majority Voting / Bagging / Random forest Boosting 가중치 평균을 사용하여 약한 학습자를 더 강력한 학습자로 만드는 알고리즘 그룹을 말한다. "teamwork"에 관한 것 실행되는 각 모델은 다음 모델에 집중할 feature을 결정한다 차례대로 하나는 다른 것으로부터 배우고, learning을 boosting함 Bootstrap A..
Expert system 획단한 expert에 대한 모든 지식이 디지털화되어 의사 결정에 사용된다. expert는 결정을 내리기 위해 취한 모든 단계, 동일한 작업의 기초 및 예외 처리 방법을 지정 순수/견고한 시스템은 전문가의 정확한 규칙을 따르려고 한 유연한 시스템은 지식을 초기 가이드로 사용하고 전문가의 피드백을 기반으로 전문가의 지침을 사용하여 학습한다 rule based system Machine learning이 입력을 일부 모델 공간에 투영하는 동안 추론을 수행 할 때 if-then 문을 사용 Machine learning training 예제를 제공하는 동안 expert에게만 결정을 요청한다. "Supervised Learning" 알고리즘은 사용 가능한 모든 데이터를 기반으로 expert..
Parametric statistics 고정된 매개 변수 집합을 갖는 확률 분포에 의해 적절하게 모델링 될 수 있는 모집단으로부터 샘플 데이터가 온다고 가정하는 통계의 한 부분 Non-parametric statistics 통계학에서 모수에 대한 가정을 전제로 하지 않고 모집단의 형태에 관계없이 주어진 데이터에서 직접 확률을 계산하여 통계학적 검정을 하는 분석법 출처: 위키백과: Non-parametric statistics 위키백과: Parametric statistics
Incremental decision tree algorithm decision tree를 출력하는 online machine learning 알고리즘이다 C4.5와 같은 많은 의사 결정 트리 방법은 완전한 데이터 세트를 사용하여 트리를 구성한다. 과거 인스턴스를 다시 처리할 필요 없이 새로운 개별 데이터 인스턴스만 사용하여 기존 트리를 업데이트할 수 있다. 출처: 위키백과

앙상블: 일련의 예측기(분류나 회귀 모델) 앙상블 학습(Ensemble learning): 일련의 예측기로부터 예측을 수집하면 가장 좋은 모델 하나보다 더 좋은 예측을 얻을 수 있을 것 앙상블 방법(Ensemble method): 앙상블 학습 알고리즘 훈련 세트로부터 무작위로 각기 다른 서브셋을 만들어 일련의 결정 트리 분류기를 훈련시킬 수 있다. 예측을 하려면 모든 개별 트리의 예측을 구하면 된다. 그런 다음 가장 많은 선택을 받은 클래스를 예측으로 삼는다. 랜덤 포레스트(Random forest): 결정 트리의 앙상블 가장 강력한 머신러닝 알고리즘 Ensemble method - 배깅, 부스팅, 스태킹 등 1. 투표 기반 분류기 좋은 분류기를 만드는 방법은 (로지스트)회귀 분류기, SVM 분류기, 랜..

Decision Tree 분류 / 회귀 작업 / 다중출력 작업이 가능한 머신러닝 알고리즘 랜덤 포레스트의 기본 구성 요소 1. Decision Tree 만들기 from sklearn.datasets import load_iris #데이터 가져옴 from sklearn.tree import DecisionTreeClassifier iris = load_iris() X = iris.data[:,2:] # 꽃잎의 길이와 너비 y = iris.target tree_clf = DecisionTreeClassifier(max_depth=2) tree_clf.fit(X,y) 2. 예측하기 새로 발견한 붓꽃의 품종을 분류해보자 * 결정 트리는 데이터 전처리가 거의 필요하지 않다. 특히 특성의 스케일을 맞추거나 평균을 ..

● DTRNN(Discrete-time recurrent neural network) - 네트워크가 외부 클록에 의해 구동된 것처럼 개별 단계로 처리가 수행된다 ● CTRNN(Continuous-time recurrent neural network) - 연속적인 시간에서 처리된다 Training approaches BPTT(Backpropagation though time) 스퀀스가 처리될 때마다 discrete-time RNN을 multilayer FFNN(feedforward neural network)으로 펼친다 FFNN은 시퀀스에서 각 'time step'에 대한 layer을 하나씩 가진다. 'time step'은 layer의 index와 같다 layer 간 연결을 돌려쓴다 단점: 전체 시계열을 ..