본문 바로가기

신성진

(16)
이패스 신성진 김용재 와 함께하는 AI모델링 이패스 신성진 김용재 와 함께하는 AI모델링AI 모델링과 머신러닝을 배우고 싶다면? 이패스의 신성진, 김용재 강사와 함께하세요!1. NumPy 기본 튜토리얼2. Pandas 기본 문법 튜토리얼3. 파이썬 자료형 튜토리얼4. 데이터 불러오기 및 저장하기5. 데이터 선택하기6. 데이터 전처리 (결측치와 이상치)7. 데이터 전처리8. 데이터 병합과 추가9. Feature Engineering (특성 공학, 변수 파생)10. 탐색적 데이터 분석11. 시각화12-2. 머신러닝 지도학습12-1 데이터 분할 (분할, k-fold)13. 모델 평가 (모델 성능 비교)12-3. 머신러닝 분류모델 총정리12-4. 머신러닝 회귀모델 총정리
12-4. 머신러닝 회귀모델 총정리 (이패스 신성진 김용재 와 함께하는 AI모델링) 회귀모델을 위한 데이터불러오기, 전처리 작업 (데이터일반분할)이패스 신성진 김용재 와 함께하는 AI모델링# 📌 Wine 데이터 - 회귀 모델 총정리 (일반 Train/Test Split 사용)# - 다양한 회귀 모델을 학습하고 성능 평가 수행import pandas as pdfrom sklearn.model_selection import train_test_splitfrom sklearn.preprocessing import StandardScalerfrom sklearn.linear_model import LinearRegression, Ridge, Lasso, ElasticNetfrom sklearn.ensemble import RandomForestRegressor, GradientBoosting..
12-3. 머신러닝 분류모델 총정리(이패스 신성진 김용재 와 함께하는 AI모델링) 머신러닝 지도학습 분류모델 (데이터 불러오기, 전처리) - 일반분할이패스 신성진 김용재 와 함께하는 AI모델링# 📌 머신러닝 지도학습 모델 - 분류모델 총정리 (Heart 데이터 활용)# - 일반 Train/Test Split을 사용 (K-Fold 분할은 주석으로 설명)# - 각 모델의 하이퍼파라미터를 상세히 설명import pandas as pdfrom sklearn.model_selection import train_test_split, KFold, cross_val_scorefrom sklearn.preprocessing import StandardScalerfrom sklearn.metrics import accuracy_score, precision_score, recall_score, f1_..
13. 모델평가 (모델성능비교) 회귀 모델 평가# 📌 Wine 데이터 - 일반 Train/Test Split 후 다양한 회귀 모델 성능 평가import pandas as pdfrom sklearn.model_selection import train_test_splitfrom sklearn.preprocessing import StandardScalerfrom sklearn.linear_model import LinearRegressionfrom sklearn.ensemble import RandomForestRegressorfrom xgboost import XGBRegressorfrom lightgbm import LGBMRegressorfrom sklearn.metrics import mean_absolute_error, mean..
12-1 데이터분할(분할, k-fold) 와인데이터 - 일반분할# 📌 1. Wine 데이터 - 일반 Train/Test Split & 다양한 모델 학습import pandas as pdfrom sklearn.model_selection import train_test_splitfrom sklearn.preprocessing import StandardScalerfrom sklearn.ensemble import RandomForestClassifierfrom sklearn.linear_model import LogisticRegressionfrom sklearn.tree import DecisionTreeClassifierfrom sklearn.svm import SVCfrom xgboost import XGBClassifierfrom lig..
12-2. 머신러닝 지도학습 사이킷런(sklearn)라이브러리pip install scikit-learn --upgrade --user 서브 라이브러리(Sub library)# 선형 회귀 모델을 제공하는 서브라이브러리from sklearn.linear_model import LinearRegression# 데이터 분리 기능을 제공하는 서브라이브러리from sklearn.model_selection import train_test_split모듈(Module)# train_test_split은 sklearn.model_selection 서브라이브러리 안에 있는 모듈from sklearn.model_selection import train_test_split# LinearRegression은 sklearn.linear_model 서브라이..
11. 시각화 경고창제거, 한글폰트 사용import warnings# 경고창 제거warnings.filterwarnings('ignore')# 한글 글꼴 설정rc('font', family='Malgun Gothic') Matplotlibimport matplotlib.pyplot as pltfrom matplotlib import rcimport warnings# 경고창 제거warnings.filterwarnings('ignore')# 한글 글꼴 설정rc('font', family='Malgun Gothic')# 데이터 준비x = [1, 2, 3, 4, 5]y = [10, 20, 30, 40, 50]# 그래프 그리기plt.plot(x, y, label="한글 데이터", color='blue', marker='o')p..
9. Feature Engieneering (특성공학, 변수파생) ✔ 기존 수치 데이터를 변형하여 새로운 의미를 가진 변수를 생성연령대 생성 → 나이를 10대, 20대, 30대 등 범주형 데이터로 변환누적합 → 판매량을 날짜별로 누적하여 누적 매출 생성평균 대비 차이 → 개별 값이 평균보다 얼마나 높은지 계산로그 변환 → 데이터의 분포가 치우친 경우 로그 스케일로 변환하여 정규화import pandas as pdimport numpy as np# 샘플 데이터 생성df = pd.DataFrame({ '이름': ['철수', '영희', '민수', '지수'], '나이': [23, 35, 45, 52], '월급': [250, 400, 600, 700]})# 연령대 변수 생성df['연령대'] = pd.cut(df['나이'], bins=[0, 30, 40, 50, ..