数据项目总结 -- 深圳租房数据分析!

共 8158字,需浏览 17分钟

 ·

2022-03-26 15:11

 Datawhale干货 
作者:皮钱超,厦门大学,Datawhale成员

大家好,《上篇》根据深圳的租房数据,并从统计分析和可视化的角度进行了分析,受到读者的欢迎。今天将使用之前的数据进行数据分析和建模,以及模型的可解释性探索。本文的主要内容包含:

ceaa9a66ac9bd03e03cb78397c86b8ff.webp

导入库

导入主要的库用于:数据处理、可视化、建模、特征可解释性等。

b3929c549d52d749a637cd36a0c10c8a.webp

1、数据探索

1)导入数据

e1fbdf3d0a67a8f65b8a1ced2d438ab0.webp

数据在Datawhale后台回复 深圳 下载

2)数据形状和字段类型

46e7a68ebec73fd104da7758c4d4a3be.webp

下面是具体的特征解释:

# 下面是特征属性
name:小区名字
layout:几室几厅几卫
location:朝向
size:建筑面积
sizeInside:套内面积
zhuangxiu:装修方式
time:小区建成时间
zone:行政区
position:行政区的具体位置;比如宝安壹方中心,龙华民治等
way:出租方式,整租或者合租
# 最终的目标变量y 
money:价格  

3)查看数据的缺失值情况

使用的是df.isnull().sum()来查看:在time字段中存在6个缺失值

83ab79f67a200ca56aa875b14a845b6d.webp

4)缺失值填充

由于缺失量比较少,直接在网上搜索到相应的时间进行了人工填充:先定位缺失值的位置,再进行填充。

4be779cd41ecf57e305ab811317a8743.webp

2、字段预处理

2.1 name

小区的姓名name直接删除

df.drop("name",axis=1,inplace=True)

2.2 layout

layout分成3个具体的属性:室、厅、卫

特殊情况:当layout为"商铺"时,直接删除~

7965f04c758a43b499c611d97a454578.webp

使用正则解析出室厅卫:

df1 = df["layout"].str.extract(r'(?P\d)室(?P\d)厅(?P\d)卫')

# 合并到原数据
df = pd.concat([df1,df],axis=1)
# 删除layout
df.drop("layout",axis=1,inplace=True)
# layout=商铺正则解析为NaN,直接删除
df.dropna(subset=["shi","ting","wei"],inplace=True)

df.head()
771b233732d984ae234a988600def73e.webp

2.3 location

不同朝向的房子数量:

df["location"].value_counts()

朝南     552
朝南北    284
朝北     241
朝东南    241
朝西南    174
朝西北    142
朝东北    140
朝东     132
朝西      92
朝东西      2
Name: location, dtype: int64
    
# 小提琴图
fig = px.violin(df,y="money",color="location")
fig.show()
927aa8499fc7214625389b98586e9b66.webp

小结:可以看到,在朝南北、朝南、朝北的房子数量比较多,而且整体的价格分布更为广泛。

对不同朝向的房子实施硬编码:

# 自定义的顺序:根据朝向和价格的关系图(上面)
location = ["朝东西","朝东北","朝西","朝西北","朝东","朝西南","朝东南","朝南","朝北","朝南北"]

location_dict = {}
for n, i in enumerate(location):
    location_dict[i] = n+1 # 保证序号从1开始
    
df["location"] = df["location"].map(location_dict)

df.head()
db077d03b6c2247700bb9ea7af974dbc.webp

2.4 size和sizeInside

建筑面积套内面积提取出数值部分,提供两种方法:

# 1、通过切割的方式来提取
df["size"] = df["size"].apply(lambda x: x.split("面积")[1].split("㎡")[0])
# 2、使用正则的方式提取
df["sizeInside"] = df["sizeInside"].str.extract(r'面积(?P[\d.]+)')
df.head()
18c59a1367b52ffbab98d0ee6422d051.webp

2.5 zhuangxiu

df["zhuangxiu"].value_counts()

精装    1172
普装     747
豪装      62
毛坯      19
Name: zhuangxiu, dtype: int64

主观意义上的思路:毛坯的等级最低,豪装最高。下面实施硬编码过程:

# 硬编码
zhuangxiu = {"毛坯":1,"普装":2"精装":3"豪装":4}
zhuangxiu

{'毛坯'1'普装'2'精装'3'豪装'4}
df["zhuangxiu"] = df["zhuangxiu"].map(zhuangxiu)
df.head()
84f6d62b1294528a8b2d3902d4c61395.webp

2.6 numberFloor

中低高楼层和价格money之间的关系

# 提取中低高楼层

df["numberFloor"] = df["numberFloor"].apply(lambda x: x.split("(")[0])
df.head()
6c90e2b78b0028c1696036d60af98ce3.webp69adcd8a3adab362421e9a533c73f49a.webp

小结:中低高3个楼层在房租上面的影响稍小。直接考虑独热编码的方式:

6d179b49c61bae6bc201f97b7e55fa01.webp
df = (df.join(pd.get_dummies(df["numberFloor"]))
    .rename(columns={"中楼层":"middleFloor",
                    "低楼层":"lowFloor",
                    "高楼层":"highFloor"}))

df.head()
390267c0c18b5850cbda49abebeee085.webp
df.drop("numberFloor",axis=1,inplace=True)  # 删除原字段

2.7 time

房子的建成时间处理:

df["time"].value_counts()

# 部分结果
2003年建成    133
2005年建成    120
2006年建成    114
2004年建成    111
2010年建成    104
......
2019年        3   # 人工填充的时间
2022年建成      2
1983年建成      1
2003年        1
2020年        1
2004年        1
Name: time, dtype: int64

提取时间年份:

df["time"] = df["time"].str.extract(r'(?P)

# time转成数值型
df["time"] = df["time"].astype("float")

# 建成时间和当前的差距
df["time"] = 2022 - df["time"]
df.head()
c91def82d4800de418e2c0ff44ef7977.webp

2.8 zone+position

行政区域和地理位置的合并处理

df["zone"].value_counts()

龙岗      548
福田      532
龙华      293
南山      218
宝安      173
罗湖      167
光明       32
坪山       31
盐田        5
大鹏新区      1
Name: zone, dtype: int64

# 行政区和价格的关系
fig = px.violin(df,y="money",color="zone")
fig.show()
f1de036929a1d1d1d22efaabf99f5378.webp
# 合并字段
df["zone_position"] = df["zone"] + "_" + df["position"]
df.head()
74a6b647504e48dce76358c8e112d269.webp

不同行政区域不同地理位置下的价格均值统计:

zone_position_mean = 
(df.groupby("zone_position")["money"].mean()
.reset_index()
.sort_values("money",ascending=False,ignore_index=True))

zone_position_mean
c316baa9e0653a81933dfeb71727edcc.webp

根据合并的zone_position_mean数据框中的money 来进行硬编码:福田_车公庙 是最高位

zone_position = zone_position_mean["zone_position"].tolist()[::-1]
zone_position_dict = {}

for n, i in enumerate(zone_position):
    zone_position_dict[i] = n+1 
    
df["zone_position"] = df["zone_position"].map(zone_position_dict)
# 删除原字段
df.drop(["zone","position"],axis=1,inplace=True)
df.head()
2b1e8114be9de8d39480f84ec81f2a46.webp

2.9 way

出租方式和价格的关系探索:

fig = px.violin(df,y="money",color="way")
fig.show()
65b2026c0eea73280483439734745c13.webp

从way的取值来看:大部分的房子是愿意整租的,而且押一付一和押二付一最为普遍。提取出“整租”和“合租”两种方式:

df["way"] = df["way"].apply(lambda x: x.split(" ")[0])
# 编码
df["way"] = df["way"].map({"整租":1,"合租":0})
df

终于:算是得到一份比较符合建模的数据

c3d0c4253e5e4849d4f38efa81eb1019.webp

3、样本不均衡

我们查看way字段下的数据情况:明显way=1的取值情况是远远大于way=0。

e3d6cce8a7e04000b0d8b0bb5491d4a7.webp

解决方法:使用SMOTE算法来解决解决way=0过少的问题。

96bbe82cc31652727320560df9e4761e.webp

解决之后的way=1和way=0的样本相同:

8ee7840c31aa20d9eb7c7b461b6f3c3b.webp

字段异常处理

1、填充样本后发现某些应该是整数,却出现了小数,比如:wei和time等

27ef372a4ca7ded605df3489bcd6ed93.webp
cols = ["shi","ting","wei","time"]
for i in cols:
    smote_df[i] = smote_df[i].apply(lambda x: round(x))

2、类型转化

c5d6542553e897780ecb22ca17b97458.webp
# 转变数据类型
smote_df["size"] = smote_df["size"].astype(float)  
smote_df["sizeInside"] = smote_df["sizeInside"].astype(float)

4、相关性分析

4.1 相关系数

针对上面得到的smote_df数据进行下面的相关性分析:

# 保存了再读取
# smote_df.to_csv("data_new.csv",index=False)
df = pd.read_csv("data_new.csv")

1、相关性

能够直观看到money因变量和size与sizeInside相关性很强

corr = df.corr()
f,ax=plt.subplots(figsize=(12,6))
sns.heatmap(corr,vmax=0.8,square=True,fmt='.2f', cmap='PuBu_r')
plt.show()
15fa58e069a0347de30903e8c5dfe4e2.webp

4.2 相关系数排序

单个属性和money之间的相关性大小排序,可以看到:size(房子面积)、sizeInsize(套内面积)和wei(卫)的相关型比较强。

单纯地从相关系数得到的结论,还是有待考证~

a760b94e47c4ce138a5ef7aa8effa139.webp

4.3 自变量和因变量关系

6bca32015cfea19d847a3978abc1cf58.webp

上面举出3个字段和money之间的相关性,在最右侧:

  • size和sizeInside相对集中的时候,money高频出现0-25000之间
  • 在不同的money取值情况,wei字段的取值集中在1-4之间

5、回归建模

5.1 特征归一化

下面是针对数据的归一化过程,采用的MinMaxScaler方法:

X = df.drop("money",axis=1)
y = df[["money"]]

# 实例化
mm = MinMaxScaler()
data = mm.fit_transform(X)

# 归一化后的数据
X = pd.DataFrame(data,columns=X.columns.tolist())
X.head()
b5dcfd9611f0bd254a2142346a09add6.webp

5.2 数据集切分

按照训练集:测试集 = 8:2的比例进行数据集的划分:

from sklearn.model_selection import train_test_split

X_train, X_test, y_train, y_test = train_test_split(
  X, y, 
  test_size=0.2,  # 比例
  random_state=4  # 随机状态
)                                                 

5.3 特征选择

在前面的工作我们从相关系数和因变量的相关性大小进行了比较,发现:Size、sizeInside和wei是比较相关的系数。

下面是从使用mutual_info_classif来查看每个特征的重要性:

from sklearn.feature_selection import mutual_info_classif
imp = pd.DataFrame(mutual_info_classif(X,y),
                  index=X.columns)

imp.columns=['importance']
imp.sort_values(by='importance',ascending=False)
054d676a2c4d44ab01fb5fa9f4fd0700.webp

我们发现:shi、wei、zhuangxiu、size都是比较重要的特征

5.4 评价指标

fe0fd583ab7af9bf1c252df6c7cad364.webp

引入多种回归模型:

# 线性回归
from sklearn.linear_model import LinearRegression
# 决策树回归
from sklearn.tree import DecisionTreeRegressor
# 梯度提升回归,随机森林回归
from sklearn.ensemble import GradientBoostingRegressor,RandomForestRegressor

5.5 不同模型效果

重点关注模型的r2值

1、线性回归-LinearRegression

c43050003d16b39bc7241abf4d032022.webp

2、决策树回归-DecisionTreeRegressor

2e594c085fc3a847c7aea01b91c819b6.webp

3、随机森林回归-RandomForestRegressor

142dbc8b9a8ee70a850f343ee94afef1.webp

4、梯度提升回归-GradientBoostingRegressor

c33f35b3a3fa8c84461f2b1e7d8a2b4e.webp

通过3种回归模型的r2得分比较:GradientBoostingRegressor > DecisionTreeRegressor > RandomForestRegressor > LinearRegression

6、模型可解释分析

为了更好理解机器学习模型的输出,下面使用SHAP库来探索调参后随机森林模型的可解释性。通过pip install shap即可安装

96d16a1e5c7cfbba2a2c7e98806076c9.webp

6.1 随机森林调参

f3f2c9667f4d1fdd02f9205d0d61a1e0.webp

进行fit拟合之后便得到了最优的参数组合:

rf_random.best_params_
# 结果
{'n_estimators'120'max_features''auto''max_depth'20}

调参后随机森林模型的r2系数略优于调参前:

20d6961282caa23e24c1b655c004fb1c.webp

建立最佳参数下的模型:

rf_random = RandomForestRegressor(
  n_estimators=180,
  max_features="auto",
  max_depth=10)

rf_random.fit(X_train, y_train)

6.2 计算shap_values

SHAP value最大的优势是SHAP能对于反映出每一个样本中的特征的影响力,而且还能够表现出影响的正负性。

在SHAP中进行模型解释需要先创建一个explainer,SHAP支持很多类型的explainer

# 1、传入调优模型rf_random创建explainer
explainer = shap.TreeExplainer(rf_random)
# 2、计算shap值
shap_values = explainer.shap_values(X_test)
shap_values
7318505d0277eb6389cea3bb829f40d6.webp

6.3 均值对比

1、通过模型预测得到的均值求解

# y的预测值和真实值比较
y_pred = rf_random.predict(X_test)

# 预测值
y_test["pred"] = y_pred  
# money部分是真实值
y_test.head()
fad88e6dca2519551b48bbb09088f2dd.webp

其中:money-真实值,pred-随机森林模型的预测值。得到的均值为:

# 真实的平均值
y_test["pred"].mean()

5614.137953764154

2、通过SHAP得到的基准值base_value

# shap得到的基准值
y_base = explainer.expected_value
y_base

array([5487.93357763])

6.4 整体特征重要性

取出每个特征的shap值的绝对值的平均值作为该特征的重要性,得到水平的条形图:

shap.summary_plot(shap_values, 
                  X_test, 
                  plot_type="bar")
2915f3b4b95184e4949c9fe3f98144a3.webp
shap.summary_plot(shap_values, X_test)
54add62223f70c82930a70a517496297.webp

可以看到,通过shap值来看:

  • size面积、zone_position区域位置、shi房间数 的重要性才是最靠前的,这个结果可以和相关系数的大小进行对比
  • 前5个特征中,蓝点主要还是集中在SHAP值小于0的区域

6.5 单个样本的SHAP值

从数据中随机抽查一条样本查看shap值:

i=18

df0 = pd.DataFrame()
df0['feature'] = X_test.columns.tolist()

df0['feature_value'] = X_test.iloc[i].values
df0['shap_value'] = shap_values[i]
df0.head(10)
8aca24136b448693f52bf9754f7fd9f0.webp
  • 第一列是特征名称
  • 第二列是特征的具体数值
  • 第三列是各个特征在该样本中对应的SHAP值

注意:一个样本中各特征 SHAP 值的和加上基线值应该等于该样本的预测值

09eda6bfdd99027838bdab06bc2930e9.webp

单条样本的特征可视化:

# 可视化
shap.initjs()

shap.force_plot(
  explainer.expected_value, 
  shap_values[i],
  X_test.iloc[i])
e871fd0d3a897199f26313d27e57fe12.webp

红色表示higher部分:表明针对这条数据,zone_position和size是重要的特征。下面是换了另一个样本的结果:

96f9d65aa79cc3cea9893d46adc3e43d.webp

不同的样本具有不同的重要属性

6.6 部分依赖图-Partial Dependence Plot

1、单个变量的影响

shap.dependence_plot('size'
                     shap_values, 
                     X_test, 
                     interaction_index=None
                     show=False)
65441e8762aadf7292d3706b0863b3fe.webp

通过图形我们观察到:size的取值在0.4以下,size的shap都是相对平和。一旦size达到一定值,对房租价格的拉升作用相当明显。

2、两个变量的交互式影响

SHAP同样能够查看两个变量的交互式影响,比如size和zone_position。

shap.dependence_plot(
    'size'
    shap_values, 
    X_test,
    interaction_index='zone_position',  # 指定
    show=False)
7ede2bb2383c875fb132d63103c3efeb.webp

当指定了interaction_index 的取值情况,我们不仅能够观察到size和房租的关系,还可以看到size和zone_position之间存在的关系:size在分界点(大致在0.4)前后,one_position的相应都比较大(红色),这同时表明zone_position是一个重要性高的特征~


整理不易,三连

浏览 30
点赞
评论
收藏
分享

手机扫一扫分享

分享
举报
评论
图片
表情
推荐
点赞
评论
收藏
分享

手机扫一扫分享

分享
举报