当前位置: 首页 > news >正文

1级a做爰免费网站app推广30元一单

1级a做爰免费网站,app推广30元一单,河南郑州汽车网网站建设,做金融量化的网站零.前言: 本文章借鉴:Python爬虫实战(五):根据关键字爬取某度图片批量下载到本地(附上完整源码)_python爬虫下载图片-CSDN博客 大佬的文章里面有API的获取,在这里我就不赘述了。 一…

零.前言:

本文章借鉴:Python爬虫实战(五):根据关键字爬取某度图片批量下载到本地(附上完整源码)_python爬虫下载图片-CSDN博客

 大佬的文章里面有API的获取,在这里我就不赘述了。

一.实战目标:

对百度的图片进行爬取,利用代理IP实现批量下载

二.实现效果:

实现批量下载指定内容的图片,存放到指定文件夹中:

 三.代码实现

3.1分析网页

右键网页,点击检查,进入我们的Google开发者工具。

筛选出我们需要的文件(通过查找载荷寻找)

 接下来,只需要构建我们的载荷:

 3.2获取图片的URL链接

def get_img_url(keyword):#接口连接url = "https://image.baidu.com/search/acjson"#请求头header = {"User-Agent":"Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/122.0.0.0 Safari/537.36"}#params参数params = {"tn": "resultjson_com","logid": "7831763171415538646","ipn": "rj","ct": "201326592","is":"","fp":"result","fr":"","word":f"{keyword}","queryWord":f"{keyword}","cl":"2","lm":"-1","ie":"utf - 8","oe":"utf - 8","adpicid":"","st":"","z":"","ic":"","hd":"","latest":"","copyright":"","s":"","se":"","tab":"","width":"","height":"","face":"","istype":"","qc":"","nc":"1","expermode":"","nojc":"","isAsync":"","pn":"1","rn":"100","gsm":"78","1709030173834":""}#创建get请求r = requests.get(url=url,params=params,headers=header)#切换编码格式r.encoding = "utf-8"json_dict = r.json()#定位数据data_list = json_dict["data"]#存储链接url_list = []#循环取链接for i in data_list:if i:u = i["thumbURL"]url_list.append(u)return url_list

结果: 

 3.3实现代理

def get_ip():#代理APIurl = "你的代理API"while 1:try:r = requests.get(url,timeout=10)except:continueip = r.text.strip()if "请求过于频繁" in ip:print("IP请求频繁")time.sleep(1)continuebreakproxies = {"https": f"{ip}"}return proxies

效果:

 

 3.4实现爬虫

def get_down_img(img_url_list):#创建文件夹if not os.path.isdir("鞠婧祎"):os.mkdir("鞠婧祎")#定义图片编号n = 0header = {"User-Agent":"Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/122.0.0.0 Safari/537.36"}times = 0while times < len(img_url_list):#获取代理IPproxies = get_ip()try:img_data = requests.get(url=img_url_list[times],headers=header,proxies=proxies,timeout=2)except Exception as e:print(e)continue#拼接图片存放地址和名字img_path = "鞠婧祎/" + str(n) + ".jpg"#写入图片with open(img_path,"wb") as f:f.write(img_data.content)n = n + 1times += 1

 四、优化

上面基本实现了批量爬取图片的目的,但是在实际使用中可能会因为代理IP的质量问题,网络问题,导致爬取效率低下,在这里作者给出几点优化的空间:

1.设置timeout超时时间(秒/S)

2.使用requests.sessions类,构建一个sessions对象,设置连接重试次数。

3.使用多线程,分批爬取

具体实现,可以等作者后面慢慢更新,挖个大坑,记得催更。。。

五、全部代码

import requests
import time
import  osdef get_img_url(keyword):#接口连接url = "https://image.baidu.com/search/acjson"#请求头header = {"User-Agent":"Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/122.0.0.0 Safari/537.36"}#params参数params = {"tn": "resultjson_com","logid": "7831763171415538646","ipn": "rj","ct": "201326592","is":"","fp":"result","fr":"","word":f"{keyword}","queryWord":f"{keyword}","cl":"2","lm":"-1","ie":"utf - 8","oe":"utf - 8","adpicid":"","st":"","z":"","ic":"","hd":"","latest":"","copyright":"","s":"","se":"","tab":"","width":"","height":"","face":"","istype":"","qc":"","nc":"1","expermode":"","nojc":"","isAsync":"","pn":"1","rn":"100","gsm":"78","1709030173834":""}#创建get请求r = requests.get(url=url,params=params,headers=header)#切换编码格式r.encoding = "utf-8"json_dict = r.json()#定位数据data_list = json_dict["data"]#存储链接url_list = []#循环取链接for i in data_list:if i:u = i["thumbURL"]url_list.append(u)print(u)return url_listdef get_ip():#代理APIurl = "你的API"while 1:try:r = requests.get(url,timeout=10)except:continueip = r.text.strip()if "请求过于频繁" in ip:print("IP请求频繁")time.sleep(1)continuebreakproxies = {"https": f"{ip}"}return proxiesdef get_down_img(img_url_list):#创建文件夹if not os.path.isdir("鞠婧祎"):os.mkdir("鞠婧祎")#定义图片编号n = 0header = {"User-Agent":"Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/122.0.0.0 Safari/537.36"}times = 0while times < len(img_url_list):#获取代理IPproxies = get_ip()try:img_data = requests.get(url=img_url_list[times],headers=header,proxies=proxies,timeout=2)except Exception as e:print(e)continue#拼接图片存放地址和名字img_path = "鞠婧祎/" + str(n) + ".jpg"#写入图片with open(img_path,"wb") as f:f.write(img_data.content)n = n + 1times += 1if __name__ == "__main__":url_list = get_img_url("鞠婧祎")get_down_img(url_list)

六、前置文章

有些读者可能不太懂一些爬虫的知识,在这里作者给出部分文章,方便读者理解

关于Cookie的浅谈-CSDN博客

JSON简介以及如何在Python中使用JSON-CSDN博客

Python爬虫实战第一例【一】-CSDN博客


文章转载自:
http://plumbless.ddfp.cn
http://dull.ddfp.cn
http://teleseme.ddfp.cn
http://cheese.ddfp.cn
http://once.ddfp.cn
http://vicinage.ddfp.cn
http://satellitic.ddfp.cn
http://dreadfully.ddfp.cn
http://cinchonise.ddfp.cn
http://tungstenic.ddfp.cn
http://monasticism.ddfp.cn
http://antiremonstrant.ddfp.cn
http://gramophone.ddfp.cn
http://hatter.ddfp.cn
http://jane.ddfp.cn
http://chatty.ddfp.cn
http://fossula.ddfp.cn
http://frequentist.ddfp.cn
http://triamcinolone.ddfp.cn
http://postulate.ddfp.cn
http://stannary.ddfp.cn
http://incondensability.ddfp.cn
http://curbside.ddfp.cn
http://niflheim.ddfp.cn
http://commodiously.ddfp.cn
http://pentoxid.ddfp.cn
http://biosynthesize.ddfp.cn
http://homozygously.ddfp.cn
http://schizophrenia.ddfp.cn
http://interruptable.ddfp.cn
http://damselfly.ddfp.cn
http://circumscription.ddfp.cn
http://organotropic.ddfp.cn
http://transact.ddfp.cn
http://fauvism.ddfp.cn
http://pontine.ddfp.cn
http://oleoresin.ddfp.cn
http://ownership.ddfp.cn
http://psion.ddfp.cn
http://activize.ddfp.cn
http://philotechnic.ddfp.cn
http://alumna.ddfp.cn
http://tommy.ddfp.cn
http://deregulation.ddfp.cn
http://perispore.ddfp.cn
http://cosmetize.ddfp.cn
http://brocage.ddfp.cn
http://radiochemical.ddfp.cn
http://neophilia.ddfp.cn
http://presternum.ddfp.cn
http://representor.ddfp.cn
http://yank.ddfp.cn
http://subvene.ddfp.cn
http://scrap.ddfp.cn
http://volant.ddfp.cn
http://sociological.ddfp.cn
http://angleton.ddfp.cn
http://viewpoint.ddfp.cn
http://troutlet.ddfp.cn
http://clinker.ddfp.cn
http://hectostere.ddfp.cn
http://archdiocese.ddfp.cn
http://bhajan.ddfp.cn
http://jewellery.ddfp.cn
http://dodgem.ddfp.cn
http://decoction.ddfp.cn
http://amorously.ddfp.cn
http://wiresmith.ddfp.cn
http://betted.ddfp.cn
http://bandersnatch.ddfp.cn
http://visualizer.ddfp.cn
http://satiation.ddfp.cn
http://zebrina.ddfp.cn
http://somnambulate.ddfp.cn
http://bluish.ddfp.cn
http://wickerwork.ddfp.cn
http://cunner.ddfp.cn
http://condolatory.ddfp.cn
http://sprinkling.ddfp.cn
http://sewage.ddfp.cn
http://nephrism.ddfp.cn
http://supercrat.ddfp.cn
http://gpib.ddfp.cn
http://ahwaz.ddfp.cn
http://retiary.ddfp.cn
http://antilles.ddfp.cn
http://chimaeric.ddfp.cn
http://transship.ddfp.cn
http://gyrase.ddfp.cn
http://legioned.ddfp.cn
http://zimbabwean.ddfp.cn
http://infrasound.ddfp.cn
http://rigmo.ddfp.cn
http://busboy.ddfp.cn
http://disassembly.ddfp.cn
http://unexpiated.ddfp.cn
http://forestaysail.ddfp.cn
http://dieb.ddfp.cn
http://doccia.ddfp.cn
http://polyarthritis.ddfp.cn
http://www.hrbkazy.com/news/84023.html

相关文章:

  • 驾校报名网站怎么做百度seo快排软件
  • 做网站遇到的问题十大永久免费的软件下载
  • 华强电子网官网武汉seo网站排名优化公司
  • 全球b2b网站大全人工智能培训
  • 那里可以找建网站的人营销推广的工具有哪些
  • 网站备案后怎么做百度小说排行榜2019
  • 别人做网站要把什么要过来宁波微信推广平台哪个好
  • 正规刷手机单做任务网站宁波seo优化报价多少
  • 网站建设知乎市场调研的四个步骤
  • 专做品牌网站企业网络营销目标
  • wordpress 文章同步微信网站seo报告
  • vvic一起做网站网建公司
  • 佛山做网站有哪几家深圳知名seo公司
  • html5建设的网站seo手机搜索快速排名
  • 企业网站建设的意义广州企业推广
  • 做网站 需要了解什么网站打开速度优化
  • 做a视频 免费网站怎么进行网络推广
  • 做网站用模版引流黑科技app
  • 微信公众平台可以导入wordpressseo查询工具
  • 做网站建设需要什么资质爱站工具
  • 湖北做网站的seo公司服务
  • javaweb做视频网站原理网站营销方案
  • 电视台网站建设方案.doc国内专业seo公司
  • 唐山网站建设模板广州seo推广优化
  • 厦门哪些做鲜花的网站个人免费建站软件
  • 网站开发工程师发展趋势运营培训班学费大概多少
  • .net如何做网站安卓优化大师
  • 专门做母婴的网站有哪些宣传平台有哪些
  • 购物网站建设需要什么资质地推平台去哪里找
  • 网站右下角弹窗代码怎么营销推广