반응형
import numpy as np

perch_length = np.array([8.4, 13.7, 15.0, 16.2, 17.4, 18.0, 18.7, 19.0, 19.6, 20.0, 21.0,
       21.0, 21.0, 21.3, 22.0, 22.0, 22.0, 22.0, 22.0, 22.5, 22.5, 22.7,
       23.0, 23.5, 24.0, 24.0, 24.6, 25.0, 25.6, 26.5, 27.3, 27.5, 27.5,
       27.5, 28.0, 28.7, 30.0, 32.8, 34.5, 35.0, 36.5, 36.0, 37.0, 37.0,
       39.0, 39.0, 39.0, 40.0, 40.0, 40.0, 40.0, 42.0, 43.0, 43.0, 43.5,
       44.0])
perch_weight = np.array([5.9, 32.0, 40.0, 51.5, 70.0, 100.0, 78.0, 80.0, 85.0, 85.0, 110.0,
       115.0, 125.0, 130.0, 120.0, 120.0, 130.0, 135.0, 110.0, 130.0,
       150.0, 145.0, 150.0, 170.0, 225.0, 145.0, 188.0, 180.0, 197.0,
       218.0, 300.0, 260.0, 265.0, 250.0, 250.0, 300.0, 320.0, 514.0,
       556.0, 840.0, 685.0, 700.0, 700.0, 690.0, 900.0, 650.0, 820.0,
       850.0, 900.0, 1015.0, 820.0, 1100.0, 1000.0, 1100.0, 1000.0,
       1000.0])


import matplotlib.pyplot as plt
plt.scatter(perch_length, perch_weight)
plt.xlabel('length')
plt.ylabel('weight')
plt.show()

 

반응형
반응형
반응형
# 데이터 준비
fish_length = [25.4, 26.3, 26.5, 29.0, 29.1, 29.7, 29.7, 30.0, 30.0, 30.7, 31.0, 31.0, 31.5, 32.0, 32.0, 32.0, 33.0, 33.0, 33.5, 33.5, 34.0, 34.0, 34.5, 35.0, 35.0, 35.0, 35.0, 36.0, 36.0, 37.0, 38.5, 38.5, 39.5, 41.0, 41.0, 9.8, 10.5, 10.6, 11.0, 11.2, 11.3, 11.8, 11.8, 12.0, 12.2, 12.4, 13.0, 14.3, 15.0]
fish_weight = [242.0, 290.0, 340.0, 363.0, 430.0, 450.0, 500.0, 390.0, 450.0, 500.0, 475.0, 500.0, 500.0, 340.0, 600.0, 600.0, 700.0, 700.0, 610.0, 650.0, 575.0, 685.0, 620.0, 680.0, 700.0, 725.0, 720.0, 714.0, 850.0, 1000.0, 920.0, 955.0, 925.0, 975.0, 950.0, 6.7, 7.5, 7.0, 9.7, 9.8, 8.7, 10.0, 9.9, 9.8, 12.2, 13.4, 12.2, 19.7, 19.9]

import numpy as np
np.column_stack(([1, 2, 3], [4, 5, 6]))

fish_data = np.column_stack((fish_length, fish_weight)) # numpy를 이용하여 튜플로 구성

print(fish_data[:5])
print(np.ones(5)) # 1로 되어 있는것 5개 출력
fish_target = np.concatenate((np.ones(35), np.zeros(14))) #1로 되어 있는 35개, 0으로 되어 있는 14개 데이터 합치기
print(fish_target)
from sklearn.model_selection import train_test_split # train_test_split 함수 import
train_input, test_input, train_target, test_target = train_test_split(fish_data, fish_target, random_state=42) # 랜덤 State를 42로 섞어서, 데이터 구분
print(train_input.shape, test_input.shape)
print(train_target.shape, test_target.shape)
print(test_target)
train_input, test_input, train_target, test_target = train_test_split(fish_data, fish_target, stratify=fish_target, random_state=42) # Stratify는 구분 기준
print(test_target)
# 수상한 도미 한마리
from sklearn.neighbors import KNeighborsClassifier
kn = KNeighborsClassifier()
kn.fit(train_input, train_target)
kn.score(test_input, test_target)
kn.predict([[25, 150]]) # 빙어라고 판단하네??
import matplotlib.pyplot as plt
plt.scatter(train_input[:,0], train_input[:,1])
plt.scatter(25, 150, marker='*')
plt.xlabel('length')
plt.ylabel('weight')
plt.show()
distances, indexes = kn.kneighbors([[25, 150]])
plt.scatter(train_input[:,0], train_input[:,1], marker='^')
plt.scatter(25, 150, marker='*')
plt.scatter(train_input[indexes, 0], train_input[indexes, 1], marker='D') # 근접인 클래스 다르게 표시
plt.xlabel('length')
plt.ylabel('weight')
plt.show()
print(train_input[indexes]) # 근접 5개 중 4개가 빙어
print(distances) # 이웃 샘플까지의 거리
plt.scatter(train_input[:, 0], train_input[:, 1])
plt.scatter(25, 150, marker='^')
plt.scatter(train_input[indexes, 0], train_input[indexes, 1], marker='D')
plt.xlim((0, 1000))
plt.xlabel('length')
plt.ylabel('weight')
plt.show()
mean = np.mean(train_input, axis=0) # 평균 계산
std = np.std(train_input, axis=0)   # 표준편차 계산

print(mean, std)
train_scaled = (train_input - mean) / std  # 표준점수 계산(train_input의 모든 값을 대상으로 평균을 빼고, 표준 편차를  나누어 표준점수 환산)

print(train_scaled)
# 전처리 데이터로 모델 훈련하기
plt.scatter(train_scaled[:, 0], train_scaled[:, 1]) # 평균값 표시
plt.scatter(25, 150, marker='^') # 그냥 값 표시
plt.xlabel('length')
plt.ylabel('weight')
plt.show()
new_target = ([25, 150] - mean) / std
plt.scatter(train_scaled[:, 0], train_scaled[:, 1]) # 평균값 표시
plt.scatter(new_target[0], new_target[1], marker='^') # 그냥 값 표시
plt.xlabel('length')
plt.ylabel('weight')
plt.show()
kn.fit(train_scaled, train_target) # 평균값으로 다시 학습, train_target 동이, 빙어 구분값은 변동 없음
test_scaled = (test_input - mean) / std #
kn.score(test_scaled, test_target)
print(kn.predict([new_target]))
distances, indexes = kn.kneighbors([new_target])
plt.scatter(train_scaled[:, 0], train_scaled[:, 1])
plt.scatter(new_target[0], new_target[1], marker='^')
plt.scatter(train_scaled[indexes, 0], train_scaled[indexes, 1], marker='D')
plt.xlabel('length')
plt.ylabel('weight')
plt.show()
반응형
반응형
반응형
# 훈련 데이터 준비
fish_length = [25.4, 26.3, 26.5, 29.0, 29.1, 29.7, 29.7, 30.0, 30.0, 30.7, 31.0, 31.0, 31.5, 32.0, 32.0, 32.0, 33.0, 33.0, 33.5, 33.5, 34.0, 34.0, 34.5, 35.0, 35.0, 35.0, 35.0, 36.0, 36.0, 37.0, 38.5, 38.5, 39.5, 41.0, 41.0, 9.8, 10.5, 10.6, 11.0, 11.2, 11.3, 11.8, 11.8, 12.0, 12.2, 12.4, 13.0, 14.3, 15.0]
fish_weight = [242.0, 290.0, 340.0, 363.0, 430.0, 450.0, 500.0, 390.0, 450.0, 500.0, 475.0, 500.0, 500.0, 340.0, 600.0, 600.0, 700.0, 700.0, 610.0, 650.0, 575.0, 685.0, 620.0, 680.0, 700.0, 725.0, 720.0, 714.0, 850.0, 1000.0, 920.0, 955.0, 925.0, 975.0, 950.0, 6.7, 7.5, 7.0, 9.7, 9.8, 8.7, 10.0, 9.9, 9.8, 12.2, 13.4, 12.2, 19.7, 19.9]

fish_data = [[l, w] for l, w in zip(fish_length, fish_weight)] # fish_length 와 fish_weight 2차원 리스트로 만들기
fish_target = [1]*35 + [0]*14

from sklearn.neighbors import KNeighborsClassifier
kn = KNeighborsClassifier()

print("fish_data[4] => ", fish_data[4])
 
print("fish_data[0:5] =>", fish_data[0:5])
 
print("fish_data[:5] =>", fish_data[:5])
 
print("fish_data[44:] =>", fish_data[44:])
 
# 훈련 세트로 입력값 총 0부터 34번째 인덱스까지 사용
train_input = fish_data[:35]

# 훈련 세트로 타겟값 총 0부터 34번째 인덱스까지 사용
train_target = fish_target[:35]

#테스트 세트로 입력값 중 35번째부터 마지막 인덱스까지 사용
test_input = fish_data[35:]

#테스트 세트로 타겟값 중 35번째부터 마지막 인덱스까지 사용
test_target = fish_target[35:]
 
kn.fit(train_input, train_target) # 도미로 학습하고
kn.score(test_input, test_target) # 빙어로 평가하니 0이 나오지
 
import numpy as np
input_arr = np.array(fish_data)
target_arr = np.array(fish_target)

print(input_arr) # 2차원 배열로 변경을 위한 numpy 라이브러리 사용
 
print(input_arr.shape) # 이 명령을 사용하면 (샘플 수, 특성 수)를 출력
 
print(input_arr.shape[1])
 
np.random.seed(42) # 랜덤값 발생을 위한 초기값 설정, 이건 빼는게 맞음
index = np.arange(49) # 49까지 인덱스 생성
#print(index)
np.random.shuffle(index) # 49개 인덱스 섞기
#print(index)

print(input_arr[[1,3]]) # 1번과 3번의 인덱스의 값 출력

train_input = input_arr[index[:35]]   # 0~35번까지의 랜덤한 인덱스로 input_arr에서 꺼내서 train_input에 넣기
train_target = target_arr[index[:35]] # 0~35번까지의 랜덤한 인덱스로 target_arr에서 꺼내서 train_target에 넣기
#print(input_arr[13], train_input[0])
 
test_input = input_arr[index[35:]]   # 35번부터 끝까지의 랜덤한 인덱스로 input_arr에서 꺼내서 test_input에 넣기
test_target = target_arr[index[35:]] # 35번부터 끝까지의 랜덤한 인덱스로 input_arr에서 꺼내서 test_input에 넣기
 
# 섞인값 출력해보기
import matplotlib.pyplot as plt
plt.scatter(train_input[:,0], train_input[:,1]) # train_input[:, 0] => train_input에서 0번째 값 전체
plt.scatter(test_input[:,0], test_input[:,1])   # test_input[:, 0] => train_input에서 0번째 값 전체
plt.xlabel('length')
plt.ylabel('weight')
plt.show() # 파란색이 훈련 세트, 주황색이 평가 세트
 
kn.fit(train_input, train_target)
kn.score(test_input, test_target)
 
kn.predict(test_input) # 정답 예측
 
print(test_target)
반응형

'머신러닝 > 혼자공부하는 머신러닝+딥러닝' 카테고리의 다른 글

3-1. K- 최근접 이웃 회귀  (0) 2024.01.08
2-2. 데이터 전처리  (0) 2024.01.08
1-3. 마켓과 머신러닝  (2) 2024.01.08
반응형
반응형
# 도미 데이터 준비
bream_length = [25.4, 26.3, 26.5, 29.0, 29.0, 29.7, 29.7, 30.0, 30.0, 30.7, 31.0, 31.0, 31.5, 32.0, 32.0, 32.0, 33.0, 33.0, 33.5, 33.5, 34.0, 34.0, 34.5, 35.0, 35.0, 35.0, 35.0, 36.0, 36.0, 37.0, 38.5, 38.5, 39.5, 41.0, 41.0]
bream_weight = [242.0, 290.0, 340.0, 363.0, 430.0, 450.0, 500.0, 390.0, 450.0, 500.0, 475.0, 500.0, 500.0, 340.0, 600.0, 600.0, 700.0, 700.0, 610.0, 650.0, 575.0, 685.0, 620.0, 680.0, 700.0, 725.0, 720.0, 714.0, 850.0, 1000.0, 920.0, 955.0, 925.0, 975.0, 950.0]

import matplotlib.pyplot as plt #matplotlib의 pyplot 함수를 plt로 줄여서 사용

plt.scatter(bream_length, bream_weight)
plt.xlabel('length') # x축은 길이
plt.ylabel('weight') # y축은 무게
plt.show()
 
# 빙어 데이터 준비
smelt_length = [9.8, 10.5, 10.6, 11.0, 11.2, 11.3, 11.8, 11.8, 12.0, 12.2, 12.4, 13.0, 14.3, 15.0]
smelt_weight = [6.7, 7.5, 7.0, 9.7, 9.8, 8.7, 10.0, 9.9, 9.8, 12.2, 13.4, 12.2, 19.7, 19.9]

plt.scatter(bream_length, bream_weight)
plt.scatter(smelt_length, smelt_weight)
plt.xlabel('length')
plt.ylabel('weight')
plt.show()
 
length = bream_length + smelt_length # 도미와 빙어의 길이를 length로 합치기
weight = bream_weight + smelt_weight # 도미와 빙어의 무게를 weight로 합치기

fish_data = [[l, w] for l, w in zip(length, weight)] # length 와 weight를 2차원 리스트로 만들기

print(fish_data)
 
fish_target = [1] * 35 + [0] * 14 # 35개의 1과 14개의 0의 리스트 만들기
print(fish_target)
 
from sklearn.neighbors import KNeighborsClassifier
kn = KNeighborsClassifier()

# 동일한 코드
# import sklearn
# kn = sklearn.neighbors.KNeighborsClassfier

kn.fit(fish_data, fish_target) # 훈련

kn.score(fish_data, fish_target) # 평가
 
 
# k-최근접 이웃 알고리즘
plt.scatter(bream_length, bream_weight)
plt.scatter(smelt_length, smelt_weight)
plt.scatter(30, 600, marker='*')
plt.xlabel('length')
plt.ylabel('weight')
plt.show()
 
kn.predict([[30, 600]]) # 정답 예측 - 도미
kn.predict([[10, 100]]) # 정답 예측 - 빙어
print(kn._fit_X)
print(kn._y)
 
 
kn49 = KNeighborsClassifier(n_neighbors=49) # 참고 데이터를 49개로 한 kn49 모델
kn49.fit(fish_data, fish_target)
kn49.score(fish_data, fish_target)
 
kn20 = KNeighborsClassifier(n_neighbors=20) # 참고 데이터를 4개로 한 kn49 모델
kn20.fit(fish_data, fish_target)
kn20.score(fish_data, fish_target)

 

반응형

+ Recent posts