一丶案例引入

#  城市气候与海洋的关系研究
#  导包
import numpy as np
import pandas as pd
from pandas import Series,DataFrame

import matplotlib.pyplot as plt
%matplotlib inline  # 使用画图模块时,jupyter工具需要声明


from pylab import mpl    #  mpl 提供画图的包
mpl.rcParams['font.sans-serif'] = ['FangSong'] # 指定默认字体
mpl.rcParams['axes.unicode_minus'] = False # 解决保存图像是负号'-'显示为方块的问题


#  导入数据
ferrara1 = pd.read_csv('./ferrara_150715.csv')
ferrara2 = pd.read_csv('./ferrara_250715.csv')
ferrara3 = pd.read_csv('./ferrara_270615.csv')
# 拼接数据,忽略索引
ferrara=pd.concat([ferrara1,ferrara2,ferrara3],ignore_index=True)


#  去除没用的列
faenza.head()

city_list=[ferrara,torino,mantova,milano,ravenna,asti,bologna,piacenza,cesena,faenza]
for city in city_list:
    # 删除 没用的列,inplace:作用在源数据上
    city.drop(labels='Unnamed: 0',axis=1,inplace=True)
    
# 显示最高温度于离海远近的关系(观察多个城市)    
max_temp = [] #10个城市的最高温度
cities_dist = [] #10个城市距离海洋的距离

for city in city_list:
    max_temp.append(city['temp'].max())
    cities_dist.append(city['dist'].max())
# 在方程式中:
    x:自变量
    y:因变量
    y = 5x + 4
    自变量的变化会导致因变量的变化
# 画散点图, scatter(x,y,c):
	# 注意: x是自变量, y是因变量.  距离是自变量,最高温度是因变量. rbyg是
plt.scatter(cities_dist,max_temp,c='rbyg')  
plt.xlabel('距离')
plt.ylabel('最高温度')
plt.title('距离和最高温度之间的关系图')

二丶机器学习的概念

# 机器学习(ML)和人工智能之间的关系是什么?
	机器学习是实现人工智能的一种技术手段
# 什么是算法模型(model或者m)?
	特殊的对象。特殊之处就在于该对象内部集成了某一种还没有求出解的方程。
# 算法模型的作用?
	实现预测:预测出一个未知的结果
	实现分类:将一个未知分类的事务归类到已知的类群中
	重点:算法模型中的方程的解就是预测或者分类的结果

#样本数据
	作用:将样本数据带入到算法模型中让其内部的方程有解。至此算法模型就可以实现分类或者预测的功能。
	训练模型:将样本数据带入到算法模型中让其内部的方程有解。只有训练好的算法模型才可以实现分类或者预测的功能!
	
	组成部分:
		特征数据:自变量	
		目标数据:因变量

#sk-learn库:封装了大量的算法模型

# 模型的分类:
	有监督学习:如果模型需要的样本数据必须包含特征数据和目标数据
	无监督学习:如果模型需要的样本只需要有特征数据
# 导入sklearn,建立线性回归算法模型对象
	# 该模型内部封装的是一个线性方程:y = wx + b
	
### 1. 提取样本数据 (特征数据,目标数据)

    feature = np.array(cities_dist)  #特征数据 
    feature = feature.reshape(-1, 1) #二维形式的特征数据(reshape把数据变形,训练的数据必须是二维)
    target =  np.array(max_temp)     #目标数据
    
    
### 2. 训练模型调用的方法是fit(X,y),y任意形式(维度)的目标数据,X表示的必须是二维的特征数据
    #1.选择一个模型对象进行实例化
    from sklearn.linear_model import LinearRegression
    # 实例化一个 线性回归对象
    linner = LinearRegression()
   
	#2.训练模型(注意:训练模型的数据必须是二维)
    linner.fit(feature,target) #X,y
    
    #3.使用相关的评价指标来评价模型
    linner.score(feature,target)
    #4.实现预测
    linner.predict([[222],[333]]) 
    
    
#### 3. 画出回归曲线
x = np.linspace(0,350,num=100)  # x 生成100个随机数
y = linner.predict(x.reshape(-1,1)) 

# 画出散点图
plt.scatter(cities_dist,max_temp,c='rbyg')

plt.xlabel('距离')
plt.ylabel('最高温度')
plt.title('距离和最高温度之间的关系图')
# 
plt.scatter(x,y)    

三丶k-近邻算法(KNN)

k-近邻算法原理

# 简单地说,K-近邻算法采用测量不同特征值之间的距离方法进行分类。

	# 优点:精度高(计算距离)、对异常值不敏感(单纯根据距离进行分类,会忽略特殊情况)、无数据输入假定(不会对数据预先进行判定)。
	# 缺点:时间复杂度高、空间复杂度高。
	# 适用数据范围:数值型和标称型。
    

欧几里得距离(Euclidean Distance)

# 欧氏距离是最常见的距离度量,衡量的是多维空间中各个点之间的绝对距离。公式如下:


案例一:

需求:预测年收入是否大于50K美元

# 读取adult.txt文件,最后一列是年收入,并使用KNN算法训练模型,然后使用模型预测一个人的年收入是否大于50


# 1.  读取数据
    data = pd.read_csv('../data/adults.txt')
    data.head()
 


# 2. 获取年龄、教育程度、职位、每周工作时间作为机器学习数据 获取薪水作为对应结果    
    feature = data[['age','education_num','occupation'
                    ,'hours_per_week']]
    target = data['salary']
    
    
# 3. knn中特征数据是需要参与运算的,所以要保证特征数据必须为数值型的数据 
	 # 数据转换,将String类型数据转换为int
     #### map方法,进行数据转换
        
  	dic = {}
    # unique()方法保证数据唯一
    occ_arr = feature['occupation'].unique()
    # 生成 字符对应数字的 关系表
    for i in range(occ_arr.size):
        dic[occ_arr[i]] = i  

# 数值替换字符串        
feature['occupation'] = feature['occupation'].map(dic)    
    
    
    
# 4. 切片:训练数据和预测数据  

	# 查看数据的形状 (训练的数据必须是二维数据)
    feature.shape
    
#训练数据
x_train = feature[:32500]
y_train = target[:32500]

#测试数据
x_test = feature[32500:]
y_test = target[32500:]	  


# 5. 生成算法
from sklearn.neighbors import KNeighborsClassifier
 # 实例化一个 knn对象, 
    # 参数:n_neighbors可调,调到最终预测的是最好的结果.
knn = KNeighborsClassifier(n_neighbors=10)
	# fit() 训练函数, (训练数据,训练数据的结果)
    knn.fit(x_train,y_train)
    
    # 对训练的模型进行评分 (测试数据,测试数据的结果)
	knn.score(x_test,y_test)
    
    
# 6.预测数据
print('真实的分类结果:',np.array(y_test))
print('模型的分类结果:',knn.predict(x_test))