Ⅰ.数据源
Ⅱ.导入库
import pandas as pdimport numpy as npfrom scipy import statsimport matplotlib.pyplot as pltimport seaborn as snsfrom sklearn.preprocessing import MinMaxScaler, StandardScaler# 避免画图时无法显示中文(中文部分以正方格显示)plt.rcParams['font.sans-serif']=['SimHei']plt.rcParams['axes.unicode_minus']=False# 显示所有的列,而不是以……显示pd.set_option('display.max_columns', None)# 显示所有的行,而不是以……显示pd.set_option('display.max_rows', None)# 不自动换行显示pd.set_option('display.width', None)
Ⅲ.读取数据
# 读取文件catering_sale=pd.read_excel('./data/catering_sale.xls')
Ⅳ.数据缺失值处理
# 判断是否存在缺失值print(catering_sale.info(),'\n')# print(np.isnan(catering_sale).any(),'\n')catering_sale2=catering_sale.dropna(axis=0)print(catering_sale2.info(),'\n')
输出结果如下:
<class 'pandas.core.frame.DataFrame'>RangeIndex: 201 entries, 0 to 200Data columns (total 2 columns): # Column Non-Null Count Dtype --- ------ -------------- ----- 0 日期 201 non-null datetime64[ns] 1 销量 200 non-null float64 dtypes: datetime64[ns](1), float64(1)memory usage: 3.3 KBNone <class 'pandas.core.frame.DataFrame'>Int64Index: 200 entries, 0 to 200Data columns (total 2 columns): # Column Non-Null Count Dtype --- ------ -------------- ----- 0 日期 200 non-null datetime64[ns] 1 销量 200 non-null float64 dtypes: datetime64[ns](1), float64(1)memory usage: 4.7 KBNone
观察可知,【销量】存在一个缺失值,本例将缺失值所在行进行删除处理
Ⅴ.数据特征分析
# 数据特征分析y=catering_sale2.iloc[:,1]print(catering_sale2.describe(),'\n')m=stats.mode(y)r=np.max(y)-np.min(y)cv=np.std(y)/np.mean(y)n,(smin,smax),sm,sv,ss,sk=stats.describe(y)print(f"统计量:{n},最小值:{smin},最大值:{smax},极差:{r},众数:{m},均值:{sm},方差:{sv},偏度:{ss},峰度:{sk},变异系数:{cv}\n")
输出结果如下:
销量count 200.000000mean 2755.214700std 751.029772min 22.00000025% 2451.97500050% 2655.85000075% 3026.125000max 9106.440000 统计量:200,最小值:22.0,最大值:9106.44,极差:9084.44,众数:ModeResult(mode=array([2618.2]), count=array([2])),均值:2755.2146999999995,方差:564045.7182129748,偏度:3.0384935298149753,峰度:29.36759633770712,变异系数:0.2719025288924932
Ⅵ.数据异常值处理
# 画箱线图y=np.array(y)def boxplot(y,title): plt.style.use('ggplot') plt.subplots() plt.boxplot(y,patch_artist=True,showmeans=True,showfliers=True,medianprops={'color':'yellow'},flierprops={'markerfacecolor':'red'},labels=['']) plt.xlabel('销量') plt.text(1.05,3850,'上边缘') plt.text(1.05,1780,'下边缘') plt.text(1.1,3000,'上四分位数Q3') plt.text(0.8,2600,'中位数Q2') plt.text(1.1,2300,'下四分位数Q1') plt.text(1.05,6500,'异常值') plt.title(f'{title}箱线图') plt.show()# 计算上下四分位数q1=np.quantile(y,q=0.25)q3=np.quantile(y,q=0.75)# 异常值判断标准,1.5倍的四分位差 计算上下须对应的值low_quantile=q1-1.5*(q3-q1)high_quantile=q3+1.5*(q3-q1)print(f'下四分位数Q1:{q1},上四分位数Q3:{q3},下边缘:{low_quantile},上边缘:{high_quantile}\n')y2=[]for i in y: if i>high_quantile: i=high_quantile y2.append(i) elif i<low_quantile: i=low_quantile y2.append(i) else: y2.append(i)boxplot(y,title='异常值处理前')boxplot(y2,title='异常值处理后')
输出结果如下:
下四分位数Q1:2451.975,上四分位数Q3:3026.125,下边缘:1590.7499999999998,上边缘:3887.3500000000004
观察可知,箱线图上下边缘存在异常值,本例通过四分位法对异常值进行处理,即:超出上边缘的异常值让其落在上边缘,低于下边缘的异常值让其落在下边缘
输出结果如下:
Ⅶ.数据标准化/归一化处理
# 标准化处理catering_sale_all=pd.read_excel('./data/catering_sale_all.xls',index_col=0)# 方法一:归一化处理normalization_data1=MinMaxScaler().fit_transform(catering_sale_all)normalization_data1=[[round(j,2) for j in normalization_data1[i]] for i in range(len(normalization_data1))]normalization_data1=np.array(normalization_data1)# 方法二:标准化处理normalization_data2=StandardScaler().fit_transform(catering_sale_all)normalization_data2=[[round(j,2) for j in normalization_data2[i]] for i in range(len(normalization_data2))]normalization_data2=np.array(normalization_data2)print(f'方法一:归一化处理:\n{normalization_data1}\n方法二:标准化处理:\n{normalization_data2}')
输出结果如下:
方法一:归一化处理:[[1. 0.1 0.4 1. 0.9 0.83 0.94 0.45 0.64 1. ] [0.57 1. 1. 0.48 0.5 0.58 1. 0.73 1. 0.39] [0.5 0.3 0.8 0.48 0.4 0. 0.33 0.55 0.64 0.22] [0.43 0.1 0.2 0. 0.6 0.5 0.44 0.73 1. 0.39] [0.07 0.5 0.9 0.24 0.8 0.58 0.89 0.55 0.91 0.43] [0.71 0.5 0.9 0.62 0.4 0.5 0.61 0.55 0.18 0.22] [0.43 0.2 0.9 0.24 0.1 0.33 0.5 0.27 0.64 0.13] [0.43 0.7 0.9 0.14 0.3 0.42 0.28 0.64 0.73 0.04] [0.21 0.3 0.4 0. 0.1 0.08 0.22 0. 0.36 0.26] [0.43 0.6 0.9 0.14 0.4 0.33 0.28 0.36 0.45 0.22] [0.21 0.2 0.4 0.29 0. 0.33 0.39 0. 0. 0.26] [0.14 0.4 0. 0.19 0.4 0.5 0.78 0.36 0.91 0.22] [0.43 0.2 0.7 0.29 0.7 0.42 0.72 0.36 0.55 0.48] [0.5 0.3 0.6 0.14 1. 0.83 0.83 0.36 0.09 0.43] [0.71 0.7 0.8 0.33 0.5 0.67 0.39 0.64 0.55 0.48] [0.07 0.3 0.8 0.38 0.5 0.33 0.5 0.09 0.73 0.3 ] [0.21 0.7 0.6 0.29 0.7 0.08 0.39 0.82 0.27 0.39] [0.43 1. 0. 0.43 0.3 0.5 0. 0. 0.82 0.17] [0. 0.5 0.9 0.48 0.9 0.42 0.67 0. 0.73 0.3 ] [0.36 0.2 0.5 0.81 0.1 0.75 0.39 0.18 0.45 0.3 ] [0.57 0.1 0.7 0.24 0.3 0.42 0.44 0.18 0.64 0.22] [0.57 0.1 0.1 0.57 0.3 0.92 0.72 0.18 0.27 0.17] [0.07 0.2 0.6 0.19 0.2 0.58 0.44 0.64 0.36 0.04] [0.29 0. 0.2 0.19 0.8 1. 0.28 0.64 0.55 0. ] [0.36 0.3 0.8 0.52 0.4 0.67 0.33 0.64 0.64 0.09] [0.07 0.5 0.8 0.29 0.3 0.42 0.39 0.45 0.64 0.3 ] [0.21 0.2 0.3 0.38 0.3 0.33 0.44 1. 0.64 0.3 ] [0.36 0. 0.7 0.33 0.4 0.67 0.39 0.45 0.64 0.22] [0.36 0.1 0.3 0.29 0.2 0.08 0.28 0.55 0.27 0.22]]方法二:标准化处理:[[ 2.81 -0.95 -0.64 3.05 1.77 1.42 1.93 0.11 0.3 3.89] [ 0.9 2.41 1.39 0.62 0.23 0.4 2.17 1.15 1.74 0.59] [ 0.58 -0.21 0.71 0.62 -0.16 -1.98 -0.68 0.45 0.3 -0.36] [ 0.26 -0.95 -1.32 -1.59 0.61 0.06 -0.2 1.15 1.74 0.59] [-1.33 0.54 1.05 -0.49 1.38 0.4 1.69 0.45 1.38 0.82] [ 1.54 0.54 1.05 1.28 -0.16 0.06 0.51 0.45 -1.5 -0.36] [ 0.26 -0.58 1.05 -0.49 -1.32 -0.62 0.03 -0.58 0.3 -0.83] [ 0.26 1.29 1.05 -0.93 -0.55 -0.28 -0.92 0.8 0.66 -1.3 ] [-0.69 -0.21 -0.64 -1.59 -1.32 -1.64 -1.15 -1.62 -0.78 -0.12] [ 0.26 0.92 1.05 -0.93 -0.16 -0.62 -0.92 -0.24 -0.42 -0.36] [-0.69 -0.58 -0.64 -0.27 -1.7 -0.62 -0.44 -1.62 -2.22 -0.12] [-1.01 0.17 -2. -0.71 -0.16 0.06 1.22 -0.24 1.38 -0.36] [ 0.26 -0.58 0.37 -0.27 1. -0.28 0.98 -0.24 -0.06 1.06] [ 0.58 -0.21 0.04 -0.93 2.15 1.42 1.46 -0.24 -1.86 0.82] [ 1.54 1.29 0.71 -0.05 0.23 0.74 -0.44 0.8 -0.06 1.06] [-1.33 -0.21 0.71 0.18 0.23 -0.62 0.03 -1.28 0.66 0.11] [-0.69 1.29 0.04 -0.27 1. -1.64 -0.44 1.49 -1.14 0.59] [ 0.26 2.41 -2. 0.4 -0.55 0.06 -2.1 -1.62 1.02 -0.59] [-1.65 0.54 1.05 0.62 1.77 -0.28 0.74 -1.62 0.66 0.11] [-0.05 -0.58 -0.3 2.16 -1.32 1.08 -0.44 -0.93 -0.42 0.11] [ 0.9 -0.95 0.37 -0.49 -0.55 -0.28 -0.2 -0.93 0.3 -0.36] [ 0.9 -0.95 -1.66 1.06 -0.55 1.75 0.98 -0.93 -1.14 -0.59] [-1.33 -0.58 0.04 -0.71 -0.93 0.4 -0.2 0.8 -0.78 -1.3 ] [-0.37 -1.33 -1.32 -0.71 1.38 2.09 -0.92 0.8 -0.06 -1.54] [-0.05 -0.21 0.71 0.84 -0.16 0.74 -0.68 0.8 0.3 -1.07] [-1.33 0.54 0.71 -0.27 -0.55 -0.28 -0.44 0.11 0.3 0.11] [-0.69 -0.58 -0.98 0.18 -0.55 -0.62 -0.2 2.18 0.3 0.11] [-0.05 -1.33 0.37 -0.05 -0.16 0.74 -0.44 0.11 0.3 -0.36] [-0.05 -0.95 -0.98 -0.27 -0.93 -1.64 -0.92 0.45 -1.14 -0.36]]
Ⅷ.数据相关性分析
# 相关性分析pearson=catering_sale_all.corr(method='pearson')print('相关性矩阵:\n',pearson)y2=catering_sale_all.iloc[:,1:]# 相关性矩阵散点图# sns.pairplot(y2,kind='reg',diag_kind='hist')# plt.title('相关性矩阵散点图')# plt.show()# 相关性矩阵热力图sns.heatmap(pearson,square=True,annot=True)plt.title('相关性矩阵热力图')plt.show()
输出结果如下:
相关性矩阵: 百合酱蒸凤爪 翡翠蒸香茜饺 金银蒜汁蒸排骨 乐膳真味鸡 蜜汁焗餐包 生炒菜心 铁板酸菜豆腐 香煎韭菜饺 香煎罗卜糕 原汁原味菜心百合酱蒸凤爪 1.000000 0.009206 0.016799 0.455638 0.126700 0.308496 0.204898 0.127448 -0.090276 0.428316翡翠蒸香茜饺 0.009206 1.000000 0.304434 -0.012279 0.066560 -0.180446 -0.026908 0.062344 0.270276 0.020462金银蒜汁蒸排骨 0.016799 0.304434 1.000000 0.035135 0.122710 -0.184290 0.187272 0.121543 0.077808 0.029074乐膳真味鸡 0.455638 -0.012279 0.035135 1.000000 0.089602 0.325462 0.297692 -0.068866 -0.030222 0.421878蜜汁焗餐包 0.126700 0.066560 0.122710 0.089602 1.000000 0.361068 0.528772 0.219578 0.200550 0.516849生炒菜心 0.308496 -0.180446 -0.184290 0.325462 0.361068 1.000000 0.369787 0.038233 0.049898 0.122988铁板酸菜豆腐 0.204898 -0.026908 0.187272 0.297692 0.528772 0.369787 1.000000 0.095543 0.157958 0.567332香煎韭菜饺 0.127448 0.062344 0.121543 -0.068866 0.219578 0.038233 0.095543 1.000000 0.178336 0.049689香煎罗卜糕 -0.090276 0.270276 0.077808 -0.030222 0.200550 0.049898 0.157958 0.178336 1.000000 0.088980原汁原味菜心 0.428316 0.020462 0.029074 0.421878 0.516849 0.122988 0.567332 0.049689 0.088980 1.000000