案例:使用K-Means对用户进行分群

Python面面观

共 7014字,需浏览 15分钟

 · 2021-01-07

K-Means 定义

K-Means 算法是聚类算法的一种,所以先了解聚类算法。

聚类分析是在没有给定划分类别情况下,根据数据相似度进行样本分组的一种方法。是一种无监督的学习算法。划分依据主要是自身的距离或相似度将他们划分为若干组,划分原则是组内样本最小化而组间(外部)距离最大化。聚类多数场景下用在「数据探索」环节,也就是用来了解数据。它无法提供明确的行动指向,更多是为后期挖掘和分析提供参考,无法回答“为什么”和“怎么办”的问题。

image.png

聚类分析和分类区别:分类是从特定的数据中挖掘模式,作出分类判断;聚类是根据数据本身特点,按照不同的模型来判断数据之间的相似性、相似性高的一组数据聚成一簇。

K-Means 算法是基于距离的聚类方法,在最小误差函数的基础上将数据划分为预定的类数 K,采用距离作为相似性的评价指标,认为两个对象的距离越近,其相似度越高。适用于连续型数据。使用场景可以是:用户分群分析。

算法过程

  1. 从 n 个样本数据中随机选取 K 个对象作为初始的聚类中心(在一开始确定 K 值上,凭业务经验划分,所以K值的选定不一定合理);

  2. 分别计算每个样本到各个聚类中心的距离,将对象分配到距离最近的聚类中;

  3. 所有对象分配完成后,重新计算 K 个聚类的中心(类似重新计算虚拟中心);

  4. 与前一次计算得到的 K 个聚类中心比较,如果聚类中心发生变化,转至步骤 2,否则转至步骤 5;

  5. 当质心不发生变化时,停止并输出聚类结果;

  6. 度量距离:度量样本之间的相似性最常用的是欧几里得距离、曼哈顿距离和闵可夫斯基距离(Python 中目前支持欧氏距离)。

伪代码如图所示

初始质心如何确定比较好

所以可以看到,在 K-Means 中有一个重要的环节,那就是如何放置初始质心,初始质心放置的位置不同,聚类的结果很可能不一样。一个好的初始质心可以避免更多的计算,让算法收敛稳定且更快。算法的第一步是在 n 个样本中随机抽取 K 个对象作为初始聚类中心,在初始的时候可能会生成在一起,导致算法运算慢且不收敛,对于此类问题可以采用 K-means++ 作为优化,其核心就是选择离已选中心点最远的点,初始质心相互间离得尽可能远。

如何确定K值

在 K-Means 中,K 值是人为确定的,如果有业务经验,可以根据业务经验来判断,如果此类数据没有先验知识,也不知道如何聚类,划分的依据就依赖于组间差异最大化,组内差异最小化的评估指标。对于这个问题可以采用轮廓系数来判定,轮廓系数的取值为(-1,1),轮廓系数越接近于 1 越好,负数则表示聚类效果非常差。单个样本的轮廓系数计算公式如下:a:样本与其自身所在的簇中的其他样本的相似度,等于样本与同一簇中所有其他点之间的平均距离;

b:样本与其他簇中的样本的相似度,等于样本与下一个最近的簇中的所有点之间的平均距离。

值越接近 1 表示样本与自己所在的簇中的样本很相似,并且与其他簇中的样本不相似;越接近 -1 说明样本点与簇外的样本更相似,与簇内样本不相似;当轮廓系数接近 0 时,则代表簇类差异和簇外差异的样本相似度一致,无明显分界。

K-Means 案例演示

数据集:航空公司客户特征字段。

分析流程为:

import pandas as pd
import numpy as np
import os
import seaborn as sns
import matplotlib.pyplot as plt
%matplotlib inline
plt.rcParams['font.family'] = ['Arial Unicode MS'
pd.set_option('display.max_columns'None)
# sns.set_style("darkgrid",{"font.sans-serif":['simhei','Droid Sans Fallback']})

os.chdir('/data')
df = pd.read_csv('air_data.csv')
df.head()

部分数据字段

描述性统计分析

查看整体数据描述性分析

explore = df.describe(percentiles=[], include='all').T
explore

部分数据字段

explore['null'] = len(df) - explore['count']
df_check = explore[['null''max''min']]
df_check.columns = [['空值记录数''最大值''最小值']]
df_check

部分数据字段

查看单个主体变量会员逐年增长情况

df['FFP_DATE_year'] = pd.to_datetime(df['FFP_DATE']).dt.year

# 获取每个年份的合计数量。方式一
count = df['FFP_DATE_year'].value_counts(sort=False).reset_index()

# 获取每个年份的合计数量。方式二
# count = df.groupby('FFP_DATE')['FFP_DATE'].count()

count.columns = ['入会时间''入会人数']
count.plot(kind='bar', x='入会时间', y='入会人数', figsize=(12,8))
output_8_1.png

查看单个分类型变量比例变化情况(直方堆积图)

# 使用数据交叉表,计算每个年度时间节点,出现男女分类的数量情况
cross_table = pd.crosstab(index=df['FFP_DATE_year'],columns=df['GENDER'])
cross_table
image.png
# 通过div函数,让分组每行合计等于1,用来看每个分组占比
cross_table = cross_table.div(cross_table.sum(1), axis=0)
cross_table
image.png
cross_table.plot(kind='bar', stacked=True)
output_12_1.png

查看单个分类型变量占比情况(直方图&饼图)

# 男女分别数量合计占比
sns.countplot(x='GENDER',data=df)
output_14_1.png
# 男女会员分别所有数量。方式一
# male_count = df.groupby('GENDER')['GENDER'].count()[0]
# female_count = df.groupby('GENDER')['GENDER'].count()[1]

# 方式二
male_count = pd.value_counts(df['GENDER'])['男']
female_count = pd.value_counts(df['GENDER'])['女']

plt.pie([male_count, female_count], 
        labels=['男''女'], 
        colors=['lightskyblue''lightcoral'],
        autopct='%1.1f%%',
       )
plt.show
output_15_1.png

查看单个分类型变量频数情况(直方图)

# 方式一: 直接使用sns.countplot 查看单个变量的分类情况
# sns.countplot(x='FFP_TIER',data=df)

# 方式二:
FFP_TIER_Level4 = pd.value_counts(df['FFP_TIER'])[4]
FFP_TIER_Level5 = pd.value_counts(df['FFP_TIER'])[5]
FFP_TIER_Level6 = pd.value_counts(df['FFP_TIER'])[6]

plt.bar(x=range(3), 
        height=[FFP_TIER_Level4, FFP_TIER_Level5, FFP_TIER_Level6],
        width=0.4,
        alpha=0.8,
        color='skyblue')
plt.xticks([index for index in range(3)], [456])
plt.show()
output_17_0.png

查看单个数值型变量分布情况(箱型图)

# 会员年龄分布箱型图

plt.figaspect
plt.boxplot(df['AGE'].dropna(),
           patch_artist=True,
           vert=False,
           boxprops = {'facecolor''lightblue'},
           labels=['会员年龄'])
plt.grid(linestyle=":", color="r")
plt.title('会员年龄分布箱型图')
plt.show()
output_19_0.png

相关性分析

# 'FFP_TIER','FLIGHT_COUNT','LAST_TO_END','SEG_KM_SUM','EXCHANGE_COUNT','Points_Sum','FFP_DATE'的相关系数分析
df_corr = df.loc[:, ['FFP_TIER','FLIGHT_COUNT','LAST_TO_END','SEG_KM_SUM','EXCHANGE_COUNT','Points_Sum','FFP_DATE']]
age1 = df['AGE'].fillna(0)
df_corr['AGE'] = age1.astype('int64')

# df的相关系数
df_corr = df_corr.corr()
df_corr
image.png
# 设置图形大小
plt.subplots(figsize=(10,10))

# 特征数据热力图
ax = sns.heatmap(df_corr, annot=True, cmap='Blues')
ax.set_ylim([80])
ax
output_22_1.png

数据预处理

数据清洗

# 去除票价为空的行 
airline_notnull = df.loc[df['SUM_YR_1'].notnull() & df['SUM_YR_2'].notnull(), :]

# 保留票价非零数据,或者平均折扣率不为零且总飞行数大于0的记录;AGE去除大于100的记录
index1 = airline_notnull['SUM_YR_1'] != 0
index2 = airline_notnull['SUM_YR_2'] != 0
index3 = (airline_notnull['SEG_KM_SUM'] > 0) & (airline_notnull['avg_discount'] != 0)
index4 = airline_notnull['AGE'] > 100
airline = airline_notnull[(index1 | index2) & index3 & ~index4]
airline.head()

部分数据字段

属性归约

airline = airline[['FFP_DATE''LOAD_TIME''LAST_TO_END','FLIGHT_COUNT','SEG_KM_SUM','avg_discount' ]]
airline['FFP_DATE'], airline['LOAD_TIME'] = pd.to_datetime(airline['FFP_DATE']), pd.to_datetime(airline['LOAD_TIME'])
airline['L'] = (airline['LOAD_TIME'] - airline['FFP_DATE']).dt.days
airline = airline.drop(['FFP_DATE''LOAD_TIME'], axis=1)
airline.columns = ['R''F''M''C''L']
airline.head()
image.png

数据标准化

from sklearn.preprocessing import StandardScaler
data = StandardScaler().fit_transform(airline)
data[:5, :]
array([[-0.94493902, 14.03402401, 26.76115699,  1.29554188,  1.43579256],
       [-0.91188564,  9.07321595, 13.12686436,  2.86817777,  1.30723219],
       [-0.88985006,  8.71887252, 12.65348144,  2.88095186,  1.32846234],
       [-0.41608504,  0.78157962, 12.54062193,  1.99471546,  0.65853304],
       [-0.92290343,  9.92364019, 13.89873597,  1.34433641,  0.3860794 ]])

聚类分析

from sklearn.cluster import KMeans

# 构建模型,随机种子设为123
kmeans_model = KMeans(n_clusters=5, n_jobs=4, random_state=123)

# 模型训练
fit_kmeans = kmeans_model.fit(data)

# 查看聚类结果
kmeans_cc = kmeans_model.cluster_centers_
kmeans_cc

# 样本的类别标签
kmeans_lable = kmeans_model.labels_

# 统计不同类别样本数目
pd.Series(kmeans_model.labels_).value_counts()

cluster_center = pd.DataFrame(kmeans_model.cluster_centers_, columns=['ZR','ZF','ZM','ZC','ZL'])
# cluster_center.index = pd.DataFrame(kmeans_model.labels_).drop_duplicates().iloc[:,0]
cluster_center
image.png

聚类分析可视化(雷达图)

#标签
labels = cluster_center.columns 

#数据个数
k = 5 
plot_data = kmeans_model.cluster_centers_

#指定颜色
color = ['b''g''r''c''y'

angles = np.linspace(02*np.pi, k, endpoint=False)

# 闭合
plot_data = np.concatenate((plot_data, plot_data[:,[0]]), axis=1

# 闭合
angles = np.concatenate((angles, [angles[0]])) 

fig = plt.figure(figsize=(8,6))

#polar参数
ax = fig.add_subplot(111, polar=True
for i in range(len(plot_data)):
  ax.plot(angles, plot_data[i], 'o-', color = color[i], label = u'客户群'+str(i), linewidth=2)# 画线

ax.set_rgrids(np.arange(0.013.50.5), np.arange(-12.50.5), fontproperties="SimHei")
ax.set_thetagrids(angles * 180/np.pi, labels, fontproperties="SimHei")
plt.legend(loc = 4)
plt.show()
output_32_1.png

注:以上案例数据集来源于《Python数据分析与挖掘实战(第2版)》,但是整体分析流程有调整。可以互相查阅学习。

需要了解可以关注公众号,在对话框回复“0103”获取数据集 + 代码。

浏览 30
点赞
评论
收藏
分享

手机扫一扫分享

举报
评论
图片
表情
推荐
点赞
评论
收藏
分享

手机扫一扫分享

举报