목록Python/Deep Learning (31)
군침이 싹 도는 코딩
epoch_history.history['loss'] >>> [0.8236269950866699, 0.7684839963912964, 0.7192712426185608, 0.6701746582984924, 0.6305500268936157, 0.5889050960540771, 0.5529721975326538, 0.5192636847496033, 0.48807293176651, 0.4604414105415344, 0.4341885447502136, 0.40978091955184937, 0.38573724031448364, 0.3628573715686798, 0.3414328396320343, 0.32183822989463806, 0.3023895025253296, 0.2817767560482025, 0...
전 글에서 만들어두었던 리그레션으로 새로운 데이터를 받아 예측해본다 리그레션을 모델링 한 것은 이 글을 참고 : https://mugoori.tistory.com/126 텐서 플로우 리그레션 문제 모델링 하는 방법 # 자동차 구매 고객 데이터를 통해서 자동차 구매금액을 예측하는 리그레션 문제를 모델링해보자 df.isna().sum() >>> Customer Name 0 Customer e-mail 0 Country 0 Gender 0 Age 0 Annual Salary 0 Credit Card Debt 0 Net Worth 0 mugoori.tistory.com # 위 조건으로 새로운 데이터를 만들어 리그레션을 돌려보자 df.head(2) # 먼저 컬럼의 순서를 확인하기위해 df를 찍어본다 new_dat..
# 자동차 구매 고객 데이터를 통해서 자동차 구매금액을 예측하는 리그레션 문제를 모델링해보자 df.isna().sum() >>> Customer Name 0 Customer e-mail 0 Country 0 Gender 0 Age 0 Annual Salary 0 Credit Card Debt 0 Net Worth 0 Car Purchase Amount 0 dtype: int64 # 비어있는 데이터를 확인해준다 X = df.loc[:,'Gender':'Net Worth'] y = df['Car Purchase Amount'] # X,y 를 나눠준다 from sklearn.preprocessing import MinMaxScaler scaler_X = MinMaxScaler() X = scaler_X.fit..
그리드 서치의 정의는 이 글을 참고 : https://mugoori.tistory.com/59 Grid Search 인공지능을 만들때 여러개를 한번에 만들고 싶다면 GridSearchCV를 사용하면 된다 우선은 파라미터로 사용할것을 딕셔너리로 만들어준다 param_grid= {'kernel':['linear','rbf','poly'],'C':[0.1,1,10], 'gamma':[0.01,0 mugoori.tistory.com from keras.wrappers.scikit_learn import KerasClassifier from sklearn.model_selection import GridSearchCV from keras.models import Sequential from keras.layers..
df = pd.read_csv('Churn_Modelling.csv') # 먼저 데이터 프레임을 불러온다 df.isna().sum() >>> RowNumber 0 CustomerId 0 Surname 0 CreditScore 0 Geography 0 Gender 0 Age 0 Tenure 0 Balance 0 NumOfProducts 0 HasCrCard 0 IsActiveMember 0 EstimatedSalary 0 Exited 0 dtype: int64 # nan 이 있는지 확인한다 X = df.loc[:,'CreditScore':'EstimatedSalary'] y = df['Exited'] # X,y로 분리한다 from sklearn.preprocessing import LabelEncoder,..
X >>> array([[1.0, 0.0, 0.0, ..., 1, 1, 101348.88], [0.0, 0.0, 1.0, ..., 0, 1, 112542.58], [1.0, 0.0, 0.0, ..., 1, 0, 113931.57], ..., [1.0, 0.0, 0.0, ..., 0, 1, 42085.58], [0.0, 1.0, 0.0, ..., 1, 0, 92888.52], [1.0, 0.0, 0.0, ..., 1, 0, 38190.78]], dtype=object) X[:,1:] >>> array([[0.0, 0.0, 619, ..., 1, 1, 101348.88], [0.0, 1.0, 608, ..., 0, 1, 112542.58], [0.0, 0.0, 502, ..., 1, 0, 113931.57]..
model.fit(X_train,y_train,batch_size=10, epochs=20) >>> Epoch 1/20 800/800 [==============================] - 2s 2ms/step - loss: 0.5123 - accuracy: 0.7931 Epoch 2/20 800/800 [==============================] - 2s 2ms/step - loss: 0.4698 - accuracy: 0.7960 Epoch 3/20 800/800 [==============================] - 2s 2ms/step - loss: 0.4561 - accuracy: 0.7959 Epoch 4/20 800/800 [======================..