python爬虫 爬取网页图片
http://t.csdnimg.cn/iQgHw
//爬虫爬取图片其实是很简单的,但是大多数同学,可能对 url的设置一直有困惑(这点本人也在研究),而本篇文章,对于想要爬取图片的小白简直是福利。你只需要将文章代码运行即可,根据报错安装对应包,然后顺利运行得到想要的结果,原作者在这里给的网址是百度图片-发现多彩世界 (baidu.com),这里面是图片的专属网站,基本上什么图片都有,你只需要根据代码提示,输入对应关键词,代码会自动识别。
import re import requests from urllib import error from bs4 import BeautifulSoup import os num = 0 numPicture = 0 file = '' List = [] # 根据地址去查找 对应的图片的信息 def Find(url, A): global List # 保存信息的列表 print('正在检测图片总数,请稍等.....') t = 0 i = 1 s = 0 while t = numPicture: return if __name__ == '__main__': # 主函数入口 # 模拟浏览器 请求数据 伪装成浏览器向网页提取服务 headers = { 'Accept-Language': 'zh-CN,zh;q=0.8,zh-TW;q=0.7,zh-HK;q=0.5,en-US;q=0.3,en;q=0.2', 'Connection': 'keep-alive', 'User-Agent': 'Mozilla/5.0 (X11; Linux x86_64; rv:60.0) Gecko/20100101 Firefox/60.0', 'Upgrade-Insecure-Requests': '1' } # 创建一个请求的会话 A = requests.Session() # 设置头部信息 A.headers = headers word = input("输入要搜索的关键词:") # 拼接路径 url = 'https://image.baidu.com/search/flip?ct=201326592&cl=2&st=-1&lm=-1&nc=1&ie=utf-8&tn=baiduimage&ipn=r&rps=1&pv=&fm=rs1&word=' + word # 根据路径去查找 total = Find(url, A) # 记录相关推荐图片 Recommend = recommend(url) print('经过检测%s类图片共有%d张' % (word, total)) numPicture = int(input('输入要下载的数量')) file = input('请建立一个存储图片的文件夹,输入文件夹名称即可: ') y = os.path.exists(file) if y == 1: print('该文件已存在,请重新输入') file = input('请建立一个存储图片的文件夹,)输入文件夹名称即可: ') os.mkdir(file) else: os.mkdir(file) t = 0 tmp = url while t
文章版权声明:除非注明,否则均为主机测评原创文章,转载或复制请以超链接形式并注明出处。
还没有评论,来说两句吧...