推荐7个好用的Python效率工具,拿走不谢!

简说Python

共 2717字,需浏览 6分钟

 ·

2022-05-30 10:00

来源丨网络



为了提高效率,我们在平时工作中常会用到一些Python的效率工具,Python作为比较老的编程语言,它可以实现日常工作的各种自动化。为了更便利的开发项目,这里给大家推荐几个Python的效率工具。


1、Pandas-用于数据分析

Pandas是一个强大的分析结构化数据的工具集;它的使用基础是Numpy(提供高性能的矩阵运算);用于数据挖掘和数据分析,同时也提供数据清洗功能。


# 1、安装包 
$ pip install pandas 
# 2、进入python的交互式界面 
$ python -i 
# 3、使用Pandas>>> import pandas as pd>>> df = pd.DataFrame() >>> print(df) 
# 4、输出结果 
Empty DataFrame 
Columns: [] 
Index: [] 

2、Selenium-自动化测试

Selenium是一个用于Web应用程序测试的工具,可以从终端用户的角度来测试应用程序。通过在不同浏览器中运行测试,更容易发现浏览器的不兼容性。并且它适用许多浏览器。

可以通过打开浏览器并访问Google的主页做一个简单的测试:


from selenium import webdriver 
   import time 

   browser = webdriver.Chrome(executable_path ="C:\Program Files (x86)\Google\Chrome\chromedriver.exe"

   website_URL ="https://www.google.co.in/" 
   brower.get(website_URL) 

   refreshrate = int(3) #每3秒刷新一次Google主页。   
   # 它会一直运行,直到你停掉编译器。 
   while True: 
       time.sleep(refreshrate) 
       browser.refresh() 

3、 Flask——微型Web框架

Flask是一个轻量级的可定制框架,使用Python语言编写,较其他同类型框架更为灵活、轻便、安全且容易上手。Flask是目前十分流行的web框架。开发者可以使用Python语言快速实现一个网站或Web服务。


from flask import Flask 
app = Flask(__name__) 

@app.route('/'
def hello_world(): 
    return 'Hello, World!' 

4、 Scrapy——页面爬取

Scrapy能够为你提供强大支持,使你能够精确地从网站中爬取信息。是非常实用。

现在基本上大部分开发者都会利用爬虫工具来实现爬取工作的自动化。所以编写爬虫编码时就可以用到这个Scrapy。

启动Scrapy Shell也是十分的简单:


scrapy shell 

我们可以试着提取百度主页上搜索按钮的值,首先要找到按钮使用的类,一个inspect element显示该类为“ bt1”。

具体执行以下操作:


response = fetch("https://baidu.com"
    response.css(".bt1::text").extract_first() 
    ==> "Search" 

5、 Requests——做API调用

Requests是一个功能强大的HTTP库。有了它可以轻松地发送请求。无需手动向网址添加查询字符串。除此之外还有许多功能,比如authorization处理、JSON / XML解析、session处理等。

官方例子:


>>> r = requests.get('https://api.github.com/user', auth=('user''pass')) 
>>> r.status_code 
200 
>>> r.headers['content-type'
'application/json; charset=utf8' 
>>> r.encoding 
'utf-8' 
>>> r.text 
'{"type":"User"...' 
>>> r.json() 
{'private_gists': 419, 'total_private_repos': 77, ...} 

6、Faker-用于创建假数据

Faker是一个Python包,为您生成假数据。无论是需要引导数据库、创建好看的 XML 文档、填写您的持久性来强调测试它,还是从生产服务中获取的同名数据,Faker 都适合您

有了它,你可以非常快速地生成假的names、addresses、descriptions等!以下脚本为例,我创建一个联系人条目,包含了姓名、地址和一些描述文本:

安装:


pip install Faker 

from faker import Faker 
fake = Faker() 
fake.name() 
fake.address() 
fake.text() 

7、 Pillow-进行图像处理

Python图像处理工具——Pillow有相当强大的图像处理功能。当平时需要做图像处理时就可以用到,毕竟作为开发人员,应该选择功能更强大的图片处理工具。

简单示例:


from PIL import Image, ImageFilter 
   try: 
       original = Image.open("Lenna.png"
       blurred = original.filter(ImageFilter.BLUR) 
       original.show() 
       blurred.show() 
       blurred.save("blurred.png"
   except: 
       print "Unable to load image" 

有效的工具可以帮助我们更快捷地完成工作任务,所以就给大家分享几个认为好用的工具,也希望这7个Python的效率工具能够帮助到你。

原文链接:http://dwz-9.cn/1mhV_

--END--

老表荐书

图书介绍人工智能数学基础零基础也能快速入门。本书从*基础的高等数学基础讲起,由浅入深,层层递进,在巩固固有知识的同时深入讲解人工智能的算法原理,无论读者是否从事计算机相关行业,是否接触过人工智能,都能通过本书实现快速入门。  本书以零基础讲解为宗旨,面向学习数据科学与人工智能的读者,通俗地讲解每一个知识点,旨在帮助读者快速打下数学基础。 
  全书分为 4 篇,共 17 章。其中第 1 篇为数学知识基础篇,主要讲述了高等数学基础、微积分、泰勒公式与拉格朗日乘子法;第 2 篇为数学知识核心篇,主要讲述了线性代数基础、特征值与矩阵分解、概率论基础、随机变量与概率估计;第 3 篇为数学知识提高篇,主要讲述了数据科学的几种分布、核函数变换、熵与激活函数;第 4 篇为数学知识应用篇,主要讲述了回归分析、假设检验、相关分析、方差分析、聚类分析、贝叶斯分析等内容。 
  本书适合准备从事数据科学与人工智能相关行业的读者。

","author":["唐宇迪 等"],"publisher":"北京大学出版社"},"appuin":"3084391334","isNewCpsKOL":0}">


扫码即可加我微信

老表朋友圈经常有赠书/红包福利活动

浏览 42
点赞
评论
收藏
分享

手机扫一扫分享

分享
举报
评论
图片
表情
推荐
点赞
评论
收藏
分享

手机扫一扫分享

分享
举报