Python数据存储读取,6千字搞定各种方法

共 22533字,需浏览 46分钟

 ·

2021-09-30 14:50


来源:简说Python

作者:老表

  • 一、前言

  • 二、专栏概要

  • 三、做准备:将爬取到的数据存入csv和mysql、其他数据库

    • 3.1 前情回顾

    • 3.1 数据存入+读取csv

    • 3.2 数据存入+读取 MySQL

    • 3.3 数据存入+读取 SQLAlchemy

    • 3.4 pandas 自带to_sql和read_sql实现数据存储、读取

    • 3.5 其他拓展

  • 四、下集预告


一、前言

今天的分享来满足这位读者的需求,想读“关于数据库sql或者MySQL的,就那种Python来处理数据库,比如Python爬虫爬到数据,然后封存到数据库里面,然后再从sql里面读取,进行分析可视化”。

后面写文章一方面是自己学习笔记,另外也会针对读者需求写一些专题文章,如果你有自己的想法,欢迎浏览器访问下方链接,或者点击阅读原文,给博主提意见:

https://shimo.im/forms/pVQRXG6gWyqPxCTY/fill?channel=wechat

本系列第一篇:直接来:一行代码爬取微博热搜数据

二、专栏概要

  • 直接来:一行代码爬取微博热搜数据
  • 做准备:将爬取到的数据存入csv和mysql、其他数据库
  • 搞事情:读取mysql数据并进行数据分析与可视化
  • 进阶活:将可视化数据结果呈现到web页面(大屏可视化)
  • 悄悄话:项目总结与思考,期待你的来稿

三、做准备:将爬取到的数据存入csv和mysql、其他数据库

首先需要你的电脑安装好了Python环境,并且安装好了Python开发工具。

如果你还没有安装,可以参考以下文章:

如果仅用Python来处理数据、爬虫、数据分析或者自动化脚本、机器学习等,建议使用Python基础环境+jupyter即可,安装使用参考Windows/Mac 安装、使用Python环境+jupyter notebook

如果想利用Python进行web项目开发等,建议使用Python基础环境+Pycharm,安装使用参考 :Windows下安装、使用Pycharm教程,这下全了Mac下玩转Python-安装&使用Python/PyCharm

3.1 前情回顾

在上一节中,我们爬取好了数据,在之前的基础上,我拓展了下数据,爬取了2021年1月1日到2021年9月1日的微博热搜数据,需要数据的可以在文末获取,当然你直接利用上次获取数据的方法获取到相应数据,也可以学习本系列,不影响。

数据基本情况:

Data columns (total 4 columns):
 #   Column         Non-Null Count  Dtype 
---  ------         --------------  ----- 
 0   wb_title       82869 non-null  object
 1   wb_hot_time    82869 non-null  int64 
 2   wb_hot_number  82869 non-null  int64 
 3   wb_first_time  82869 non-null  object
dtypes: int64(2), object(2)
memory usage: 2.5+ MB

字段说明:

字段名数据类型含义
wb_titlestr热搜标题
wb_hot_timeint热搜在榜时间(分钟)
wb_hot_numberint热搜热度
wb_first_timestr热搜上榜时间(第一次)

数据示例:

3.1 数据存入+读取csv

这里我们利用pandas的to_csv方法,如果你还没有安装过,直接:

pip install pandas

pandas为Python编程语言提供高性能,是基于NumPy 的一种易于使用的数据结构和数据分析工具,pandas为我们提供了高性能的高级数据结构(比如:DataFrame)和高效地操作大型数据集所需的工具,同时提供了大量能使我们快速便捷地处理数据的函数和方法。

首先需要导入pandas模块,并起一个别名pd:

import pandas as pd
  • 写数据
# 数据已经是pandas的DataFrame,所以直接调用to_csv函数即可
save_path = '../wb_hot_data.csv'  # 文件存储路径,这里使用相对路径,存储到代码的上级目录下
wb_hot_data.to_csv(save_path)

超级简单,直接调用to_scv函数,传入一个文件路径即可实现写入csv功能,但是你会发现直接打开会中文会乱码,索引列也被存储进去了。

不要急,我在之前写的数据分析从零开始实战 | 基础篇(一)有详细的to_csv函数解析,这里直接贴过来,方便大家学习:

to_csv(path_or_buf,sep,na_rep,columns,header,index)

1. path_or_buf:字符串,文件名、文件具体、相对路径、文件流等;

2. sep:字符串,文件分割符号;

3. na_rep:字符串,将NaN转换为特定值;

4. columns:列表,选择部分列写入;

5. header:None,写入时忽略列名;

6. index:False则选择不写入索引,默认为True。

我们存储的时候设置下编码(编码设置为utf_8_sig)和不要存储索引即可:

# 数据已经是pandas的DataFrame,所以直接调用to_csv函数即可
save_path = '../wb_hot_data.csv'  # 文件存储路径,这里使用相对路径,存储到代码的上级目录下
# 改为utf_8_sig编码 https://blog.csdn.net/pipisorry/article/details/44136297
wb_hot_data.to_csv(save_path, encoding='utf_8_sig',index=False)
  • 读数据
# 直接调用pandas的read_csv函数即可,传入文件存储路径
wb_hot_data = pd.read_csv('../wb_hot_data.csv')
# 查看数据前3行
wb_hot_data.head(3)

我在之前写的数据分析从零开始实战 | 基础篇(一)有详细的read_csv函数解析,这里直接贴过来,方便大家学习:

read_csv(filepath_or_buffer,sep,header,names,skiprows,na_values,encoding,nrows)
按指定格式读取csv文件。
常见参数解析:
1. filepath_or_buffer:字符串,表示文件路径。

2. sep: 字符串,指定分割符,默认是’,’。

3. header:数值, 指定第几行作为列名(忽略注解行),如果没有指定列名,默认header=0,数据第一行为表头; 如果指定了列名,则需要设置header=None。

4. names: 列表,指定列名,如果文件中不包含header的行,应该设置header=None。

5. skiprows:列表,需要忽略的行数(从0开始),设置的行数将不会进行读取。

6. na_values:列表,设置需要将值替换成NAN的值,pandas默认NAN为缺省,可以用来处理一些缺省、错误的数值。

7. encoding:字符串,用于unicode的文本编码格式。例如,"utf-8""gbk"等文本的编码格式。

8. nrows:需要读取的行数。

直接利用pandas的to_csv和read_csv我们就可以很快的完成python写、读csv文件,关于pandas读写其他格式数据,可以查看我的往期文章:
pandas读写csv

pandas读写tsv、json

pandas读写excel、xml

3.2 数据存入+读取 MySQL

跟着之前的文章安装好MySQL后(最简单的安装方法就是官网下载安装包然后一步步安装),就可以进行后面操作了。

首先确保mysql安装和环境变量配置没问题,打开终端(或者cmd),输入下面指令,输出对应的mysql版本则表示相关配置ok。

# 1)查看mysql版本 确保环境变量配置OK
mysql --version
# 2)启动mysql服务
mysql.server start

接下来,我们需要打开终端(或者cmd),进入mysql数据库,并创建一个数据库sql_study,并在该数据库下创建一张表wb_hot用于存放微博热搜数据,主键设置为热搜标题。

当然,这些操作也可以利用python完成,这里提前这样操作是为了让大家了解mysql基本语法,这对后面我们使用mysql进行数据分析处理是有很大好处的,希望你能重视或理解。

# 3)进入mysql
mysql -u数据库用户名 -p设置的数据库登录密码
# 4)创建一个数据库 sql_study
create database sql_study charset=utf8;
# 5)进入数据库
use sql_study;
# 6)创建一个数据表 wb_hot
create table if not exists `wb_hot`(
`wb_title` varchar(100) not null,
`wb_hot_time` int not null,
`wb_hot_number` int not null,
`wb_first_time` datetime not null,
primary key(`wb_title`, `wb_first_time`)
)engine=InnoDB default charset=utf8;
# 7)查看新建的表
show tables;

接下来我们使用pymysql这个库来实现Python对mysql的操作,首先安装pymysql,推荐直接使用镜像源安装,速度快,

pip install -i https://pypi.douban.com/simple/ pymysql

打开jupyter notebook,开始写代码啦~(当然你习惯用其他开发工具也可以,如pycharm、vscode等)

# 打开jupyter
jupyter notebook

这里我们假设数据已经读取出来,存放在 wb_hot_data 一个dataframe对象,你可以是直接接上一篇文章爬取数据整理后,或者是本篇文章中从 csv文件读取都可以,总之我们假设数据已经读取到了 wb_hot_data 变量中,后面也是。

数据已经准备好了,我们就开始利用python连接mysql并进行相关插入操作吧~

  • 连接mysql
import pymysql

# 连接数据库 并添加cursor游标,后面所有操作都利用游标进行
conn = pymysql.connect(host = "localhost",port = 3306,user = "你的数据库登录用户名", password = "你的数据库登录密码",charset="utf8")
cursor = conn.cursor()
  • 创建数据库
'''
新建一个数据库
database:数据库名称
cursor:数据库连接游标
'''

def create_database(database, cursor):
    # 创建database, 如果存在则不创建
    cursor.execute("create database if not exists %s;"%database)
    # 将相关操作内容传入数据库
    conn.commit()
    print("成功创建数据库:%s"%database)
  • 指定数据库中创建数据表
'''
在指定数据库中新建一个数据表
'''

def create_table(table_name, table_sql, database, cursor):
    # 选择 database 数据库
    cursor.execute("use %s;"%database)
    # 创建数据表,因为数据表创建相对复杂,所以直接传入sql语句
    cursor.execute(table_sql)
    # 将相关操作内容传入数据库
    conn.commit()
    print("成功在数据库{0}中创建数据表:{1}".format(database,table_name))
  • 对指定数据表进行增删查改
'''
在指定数据库的数据表中增、删、查、改
'''

def sql_basic_operation(table_sql, database, cursor):
    # 选择 database 数据库
    cursor.execute("use %s"%database)
    # 执行sql语句
    cursor.execute(table_sql)
    # 增删查改 一般为批量操作,不建议直接commit,可以操作完自己写个commit
    # 这样执行效率会高很多,实测8w+数据,先插入所有再commit的耗费17.48s
    # 每插入一次就commit一次的耗时为56.63s
    # conn.commit()
    print("sql语句执行成功")

从上面我们可以看出,主要是利用了execute函数来执行sql操作语句,从而实现对数据库的控制。

利用python将爬取到的数据存入mysql

由于数据库和数据表我们之前已经创建过了,所以现在只需要插入数据到mysql即可,接下来我们写一个循环插入数据的语句吧~

'''
将dataframe数据存储到mysql
'''

import time
def df_to_sql(df, table_name, database, cursor):
    t1 = time.time()  # 时间戳 单位秒
    print('数据插入开始时间:{0}'.format(t1))
    i = 0
    for row in df.itertuples():
        # print(type(row))  # <class 'pandas.core.frame.Pandas'>
        # 拼接插入sql语句
        # insert into wb_hot values('谢允妻管严', 142, 276514, '2021-01-01 16:59:00');
        sql_insert = '''insert into {0} values('{1}', {2}, {3}, '{4}');
        '''
.format(table_name,getattr(row,'wb_title'), 
                   getattr(row,'wb_hot_time'), 
                   getattr(row,'wb_hot_number'), 
                   getattr(row,'wb_first_time')
                  )   
        # 将插入语句传入函数,执行相关操作
        sql_basic_operation(sql_insert, database, cursor)
        i+=1
    conn.commit()
    t2 = time.time()  # 时间戳 单位秒
    print('数据插入结束时间:{0}'.format(t2))
    print('成功插入数据%d条,'%i, '耗费时间:%.5f秒。'%(t2-t1))    

接着我们就可以将数据插入mysql数据库啦,

# 对数据进行小处理,将wb_first_time列改为日期类型
wb_hot_data['wb_first_time'] = pd.to_datetime(wb_hot_data['wb_first_time'])

df_to_sql(wb_hot_data, 'wb_hot''sql_study', cursor)

一共82869条数据,从mysql后台也可以看到相关数据,都正常。

利用python从mysql读取爬取到的数据

根据上面学习,我们直接写好读取(查询)的sql语句就可以啦,然后调用我们之前写的sql操作函数即可读取相关数据:

'''
从sql读取数据,并转成dataframe格式数据
'''

def read_from_sql(sql_query, database, cursor, columns):
    # 直接调用
    sql_basic_operation(sql_query, database, cursor)
    conn.commit()
    # 获取匹配到的数据
    result = cursor.fetchall()  # 放回数据为元组 格式((字段名1, 字段名2...),()...)
    # 将元组数据转为dataframe
    df = pd.DataFrame(result, columns=columns)
    return df

调用数据查询函数,并获取相关数据:

'''
获取wb_hot中前三行数据
'''

# sql查询语句
sql_query = '''select * from wb_hot limit 3'''
# 列名
columns = ['wb_title''wb_hot_time''wb_hot_number''wb_first_time']
# 调用函数,并获取返回值
sql_data = read_from_sql(sql_query, 'sql_study', cursor, columns)  
sql_data

我们会发现这与我们存入数据的前三行不同,这是因为在mysql中插入数据默认会按主键顺序进行排列,解决这个问题最好的方法是我们家一个自增序号列,并设置为主键,这样数据顺序就和我们插入顺序一致了。

或者我们在写查询语句加上指定的查询条件(where),以及排序列(order by)即可。

# 完成操作后记得close cursor和conn
cursor.close()
conn.close()

3.3 数据存入+读取 SQLAlchemy

SQLAlchemy 是 Python SQL 工具包和对象关系映射器(ORM),可为应用程序开发人员提供 SQL 的全部功能和灵活性。所谓ORM,就是指把关系数据库的表结构映射到对象上,在Python里面我们直接操作对象,就能对数据库进行操作了,简便、逻辑性更强。

首先还是安装SQLAlchemy模块:

pip install -i https://pypi.douban.com/simple/ sqlalchemy

3.3.1 首先导入相关包

# 导入相关包
from sqlalchemy import Column, String, Integer, DateTime, create_engine
from sqlalchemy.orm import sessionmaker
from sqlalchemy.ext.declarative import declarative_base

sqlalchemy下的:

  • Column 数据列对象
  • String, Integer, DateTime 数据类型
  • create_engine 创建数据库连接引擎,有个重要参数url,一般格式为:数据库类型+数据库驱动://数据库用户名:数据库密码@IP地址:端口/数据库

sqlalchemy.orm下的:

  • sessionmaker 创建python与数据库的会话对象,后面直接利用实例化session对象调用增删查改相关操作

sqlalchemy.ext.declarative下的:

  • declarative_base 创建sqlalchemy基本对象,很重要

3.3.2 初始化数据库,并创建会话session

# 初始化数据库连接引擎
# create_engine("数据库类型+数据库驱动://数据库用户名:数据库密码@IP地址:端口/数据库",其他参数)
engine = create_engine('mysql+pymysql://数据库用户名:数据库密码@localhost:3306/sql_study?charset=utf8')
# 创建数据库会话对象,并实例化
db_session = sessionmaker(bind=engine)()

3.3.3 创建一个WbHot类,并利用WbHot类创建表wb_hot

# 创建sqlalchemy基本对象
# 后面每个对象都继承自它
Base = declarative_base()

# 定义WbHot类,一个类可以理解成一张表
# 后面对对象进行操作就是对表进行操作
class WbHot(Base):
    # 表名,为了不和之前的表重名,新表起名为wb_hot2
    __tablename__ = 'wb_hot2'

    # 表结构,初学者对照sql创建语句写更简单
    '''
    create table if not exists `wb_hot`(
        `wb_title` varchar(100) not null,
        `wb_hot_time` int not null,
        `wb_hot_number` int not null,
        `wb_first_time` datetime not null,
        primary key(`wb_title`, `wb_first_time`)
    )engine=InnoDB default charset=utf8;
    '''

    # Column nullable是否可为空 primary_key 是否为主键
    wb_title = Column(String(100), nullable=False, primary_key=True)
    wb_hot_time = Column(Integer, nullable=False)
    wb_hot_number = Column(Integer, nullable=False)
    wb_first_time = Column(DateTime, nullable=False, primary_key=True)
    

# 调用基础对象中的元数据模块中的create_all创建数据表
Base.metadata.create_all(engine)

创建好表,我们可以在mysql下查看下我们刚刚创建的表相关信息,可以看出,和之前直接利用sql创建的数据表表结构一致。

3.3.4 存储数据

表创建好后,我们就可以开始存储数据啦,前面说过了,sqlalchemy是对对象进行操作了,所以我们将数据变成一个一个的WbHot对象,然后在调用session中的add函数即可实现新增数据,代码如下:

# 存储数据
import time
def sqlalchemy_to_sql(df, session):
    t1 = time.time()  # 时间戳 单位秒
    print('数据插入开始时间:{0}'.format(t1))
    i = 0
    for row in df.itertuples():
        # print(type(row))  # <class 'pandas.core.frame.Pandas'>
        # 初始化WbHot对象
        # WbHot('谢允妻管严', 142, 276514, '2021-01-01 16:59:00');
        wb_hot = WbHot(wb_title=getattr(row,'wb_title'), 
                   wb_hot_time=getattr(row,'wb_hot_time'), 
                   wb_hot_number=getattr(row,'wb_hot_number'), 
                   wb_first_time=getattr(row,'wb_first_time')
                  )   
        # 调用session中的add函数将对象添加到数据表
        session.add(wb_hot)
        i+=1
    session.commit()
    t2 = time.time()  # 时间戳 单位秒
    print('数据插入结束时间:{0}'.format(t2))
    print('成功插入数据%d条,'%i, '耗费时间:%.5f秒。'%(t2-t1))
        
# 调用函数  
sqlalchemy_to_sql(wb_hot_data, db_session) 

sql里还提供了一种一直新增多行数据的方法add_all,将所有要提交的数据存入列表,然后利用session调用add_all函数即可,测试了下,以8w条数据为例,两者效率如下:

add 成功插入数据82869条, 耗费时间:8.07842秒。
add_all 成功插入数据82869条, 耗费时间:7.29939秒。

相差0.8s左右,当然会有误差,不过不管怎么说,这比前面直接用pymysql使用sql语句插入数据的效率高了2倍多,优秀~

3.3.4 读取(查询)数据

这里我们直接调用query函数进行查询,这个函数功能非常强大,包含了很多查询方法,比如:limit、filter、order_by、group_by等,操作起来非常方便。

def wbhot_to_df(data, columns):
    df_data = []
    for i in data:
        list_data = [i.wb_title, i.wb_hot_time, i.wb_hot_number, i.wb_first_time]
        df_data.append(list_data)
    df = pd.DataFrame(df_data, columns=columns)
    return df

# 读取非常简单,直接调用query函数即可
# all()表示 所有查询到的数据对象
# first()表示 查询到的数据对象中的第一个
data = db_session.query(WbHot).limit(3).all()
columns = ['wb_title''wb_hot_time''wb_hot_number''wb_first_time']
# 调用函数,将批量WbHot对象转换成dataframe
data_df = wbhot_to_df(data, columns)

接下来我们简单介绍下sqlalchemy中查询的一些几本操作(以WbHot类为例):

# 直接查询,并返回所有数据,返回为一个包含WbHot的列表
db_session.query(WbHot).all()

# 限制输出列 limit
# 查询所有数据,输出前五行
db_session.query(WbHot).limit(5).all()

# 单条件过滤查询 返回所有热搜在榜时间2h及以上的热搜数据
# filter参数 类名.字段名 
db_session.query(WbHot).filter(WbHot.wb_hot_time>=120).all()

# 多条件过滤查询 
# filter_by 不能使用判断过滤,比如== >=等,另外参数是字段名,不需要类名.字段名
db_session.query(WbHot).filter_by(wb_hot_time=528 , wb_hot_number=2995191).all()

# 也可以使用filter来进行多条件过滤,略麻烦
# 需要从sqlalchemy导入 and_, or_(与、或判断方法)
# 返回所有热搜在榜时间2h及以上且热度大于1千万的数据
from sqlalchemy import and_, or_
db_session.query(WbHot).filter(and_(WbHot.wb_hot_time>=120, WbHot.wb_hot_number>=10000000)).all()

# 查询结果排序 order_by 
# 参数 类名.字段名[.desc() 降序|asc() 升序]
# 返回所有热搜在榜时间2h及以上且热度大于3千万的数据,按热度降序排序
from sqlalchemy import and_, or_
db_session.query(WbHot).filter(and_(WbHot.wb_hot_time>=120, WbHot.wb_hot_number>=30000000)).order_by(WbHot.wb_hot_number.desc()).all()



# 分组查询 order_by
# 参数 类名.字段名
# 按标题分组,计算每个标题出现的天数、总在线时长、总热度、最后在线时间
db_session.query(WbHot.wb_title, 
            func.count(WbHot.wb_title).label('counts'),
            func.sum(WbHot.wb_hot_time).label('wb_hot_times'), 
            func.sum(WbHot.wb_hot_number).label('wb_hot_numbers'), 
            func.max(WbHot.wb_first_time).label('wb_finally_time')).group_by(WbHot.wb_title).having(func.count(WbHot.wb_title)>=10).all()

更多其他关于sqlalchemy查询数据库用法,大家用到的时候浏览器一查就可以啦~也欢迎大家留言区补充。

除了mysql数据库外,sqlalchemy也可以连接很多其他数据库,如:

# '数据库类型+数据库驱动名称://用户名:密码@机器地址:端口号/数据库名'
engine = create_engine('sqlite:/// wb_hot.db'# 连接sqlite文件
engine = create_engine('postgresql://用户名:密码@hostname:5432/dbname')  # 连接postgresql
engine = create_engine('oracle://用户名:密码@hostname:1521/sidname'# oracle  # 连接oracle
...

3.4 pandas 自带to_sql和read_sql实现数据存储、读取

3.4.1 to_sql 存储数据到mysql

经过实验,这种方法写数据效率是最高的,直接上代码,

# 调用pandas 的 to_sql 存储数据
import time
from sqlalchemy import create_engine
# 利用sqlalchemy的create_engine创建一个数据库连接引擎
engine = create_engine('mysql+pymysql://用户名:密码@localhost:3306/sql_study?charset=utf8')
t1 = time.time()  # 时间戳 单位秒
print('数据插入开始时间:{0}'.format(t1))
# 直接调用to_sql
# 第一个参数:表名,如果表不存在就会直接根据数据结构新建
# 第二个参数:engine,数据库连接引擎
# 第三个参数:设置存储不要将数据索引存入
# 第四个参数:如果表存在,以什么方式存储,append表示追加,replace表示删除表重建,默认fail抛出ValueError异常
wb_hot_data.to_sql('wb_hot2', engine, index=False, if_exists='append')
t2 = time.time()  # 时间戳 单位秒
print('数据插入结束时间:{0}'.format(t2))
print('成功插入数据%d条,'%len(wb_hot_data), '耗费时间:%.5f秒。'%(t2-t1))

仅仅花了2.4s,比pymysql快9倍,比sqlalchemy快4倍,当然也可能是我操作问题(pymysql、sqlalchemy里我都写了循环,一个个读取然后再存入,遍历本生会耗费很长时间),如果大家有更好方法,欢迎留言区分享。

3.4.2 read_sql 读取数据从mysql

# 读取的sql语句
sql = 'select * from wb_hot2'
# 第一个参数:查询sql语句
# 第二个参数:engine,数据库连接引擎
# 第三个参数:将指定列转换成指定的日期格式
pd_read_sql = pd.read_sql(sql, engine, parse_dates={'wb_first_time'"%Y:%m:%H:%M:%S"})

简单便捷,读取出来的数据格式也都对,而且就是dataframe数据格式,更方便我们进行数据分析和处理。

我还发现这个read_sql还可以执行复杂的查询,效率也还比较高,如查询热搜热度在3千万以上且在榜时间超过2h的热搜数据:

sql = 'select * from wb_hot2 where wb_hot_number>=30000000 and wb_hot_time>120'
pd_read_sql = pd.read_sql(sql, engine, parse_dates={'wb_first_time'"%Y:%m:%H:%M:%S"})

简直太香了,我觉定后面就用pandas+sqlalchemy了。

3.5 其他拓展

在之前的文章由详细介绍postgresql数据库,里面有详细介绍sqlalchemy与postgresql交互操作,大家可以去看看,点击前往学习,同时里面也介绍了python连接mysql mongodb sqlite的部分,这里贴过来方便大家学习。

mongodb
Python连接mongodb使用pymongodb即可,连接操作也很简单,直接在开启mongodb服务后,pymongo.MongoClient(host="127.0.0.1",port=27017)连接即可,默认端口是27017。

# 使用前先安装 pymongodb 模块 :pip install pymongodb 
# 导入 pymogodb 模块
import pymongo
# 连接数据库,参数说明:服务器IP,端口号默认为27017
my_client = pymongo.MongoClient(host="127.0.0.1",port=27017)
# 直接通过数据库名称索引,有点像字典
my_db = my_client["db_name"]  
# 连接 collection_name 集合,Mongodb里集合就相当于Mysql里的表
my_collection = my_client["collection_name"]  
datas = my_collection .find() # 查询
for x in datas :
  print(x)

sqlite
除了上面提到的用sqlachemy操作sqlite,还可以直接利用sqlite3这个模块操作,连接也非常方便,sqlite3.connect('test.db')直接传入sqlite数据文件目录即可。

# 使用前先安装 sqlite3  模块 :pip install sqlite3
'''
sqlite数据库和前面两种数据库不一样,它是一个本地数据库
也就是说数据直接存在本地,不依赖服务器
'''

# 导入 sqlite3 模块
import sqlite3
# 连接数据库,参数说明:这里的参数就是数据文件的地址
conn = sqlite3.connect('test.db')
#使用cursor()方法创建一个游标对象
c = conn.cursor()
#使用execute()方法执行SQL语句
cursor = c.execute("SELECT * from test_table")
for row in cursor:
  print(row)
#关闭游标和数据库的连接
c.close()
conn.close()

四、下集预告

以上,相对详细且简洁的给大家分享了一个我们爬取到数据后如何存储并读取的方法和技巧,希望对初学Python的读者朋友有帮助,觉得还不错,记得点个赞哦,本文相关源码将在本系列文章结束后整理发布出来,想提前要未整理版本的也可以添加老表微信获取(见文末)。

部分数据库介绍不是很详细,主要是老表我自己主要使用mysql多,其他使用不多,欢迎大家在留言区补充自己了解的知识,一人补一块,也就全了。

下一讲中,我们将一起学习读取mysql数据,如何进行数据分析与可视化,有哪些角度和思考,也欢迎大家在留言区提出一些可以分析的角度,关于数据分析与可视化这一节,你还想学习什么其他的内容也可以在评论区、留言区进行留言。

下一篇争取国庆结束前写出来,点个赞,点个赞,点个赞,点个赞,点个赞,点个赞,点个赞,点个赞,点个赞,点个赞,点个赞,点个赞,点个赞,点个赞,点个赞,点个赞,点个赞,点个赞,点个赞,点个赞,点个赞,点个赞,点个赞,点个赞,点个赞...


图书推荐:《对比Excel,轻松学习Python 数据分析》和《对比Excel,轻松学习SQL数据分析》是姊妹版套装,两本书同样采用对比的写法,降低读者学习门槛,提高读者学习效率,即可学习Excel又可以学习Python、SQL,一举三得,极力推荐想学习Python和数据分析的读者朋友选购阅读。

老表赠书:国庆前有几波赠书活动,这是第一波,留言说说你国庆的安排(字数需要大于20字),留言点赞top1可以获得两本赠书,top2可以获得一本赠书。(截止到9月30日 20:00 开奖,刷赞无效)

老表福利:外卖电影娱乐通是老表自己搞的一个汇集了外卖红包、电影折扣、打车优惠等福利的公众号,后面还会在公众号内发布很多福利活动,欢迎大家关注。


点赞+留言+转发,就是对我最大的支持啦~


--End--


文章点赞超过100+

我将在个人视频号直播(老表Max)

带大家一起进行项目实战复现



扫码即可加我微信

老表朋友圈经常有赠书/红包福利活动

点击上方卡片关注公众号,回复:1024
领取最新Python学习资源

学习更多:
整理了我开始分享学习笔记到现在超过250篇优质文章,涵盖数据分析、爬虫、机器学习等方面,别再说不知道该从哪开始,实战哪里找了
点赞”就是对博主最大的支持 
浏览 60
点赞
评论
收藏
分享

手机扫一扫分享

分享
举报
评论
图片
表情
推荐
点赞
评论
收藏
分享

手机扫一扫分享

分享
举报