扫二维码与项目经理沟通
我们在微信上24小时期待你的声音
解答本文疑问/技术咨询/运营咨询/技术建议/互联网交流
小编给大家分享一下如何使用Python实现的爬取百度贴吧图片功能,相信大部分人都还不怎么了解,因此分享这篇文章给大家参考一下,希望大家阅读完这篇文章后大有收获,下面让我们一起去了解一下吧!
创新互联公司是一家专业提供祁阳企业网站建设,专注与成都网站建设、成都网站设计、HTML5、小程序制作等业务。10年已为祁阳众多企业、政府机构等服务。创新互联专业网站设计公司优惠进行中。具体如下:
#coding:utf-8 import requests import urllib2 import urllib ``` from lxml import etree class Tieba: def __init__(self): self.tiebaName = raw_input("请输入需要爬取的贴吧:") self.beginPage = int(raw_input("请输入爬取的起始页:")) self.endPage = int(raw_input("请输入爬取的结束页:")) self.baseURL = "http://tieba.baidu.com" #self.headers = {"User-Agent" : "Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/59.0.3071.86 Safari/537.36"} self.headers = {"User-Agent" : "Mozilla/5.0 (compatible; MSIE 9.0; Windows NT 6.1 Trident/5.0;"} def startWork(self): """ 发送贴吧每一页的url请求 """ for page in range(self.beginPage, self.endPage + 1): pn = (page - 1) * 50 keyword = {"kw" : self.tiebaName, "pn" : pn} kw = urllib.urlencode(keyword) url = self.baseURL + "/f?" + kw #print url html = self.loadRequest(url) self.loadPage(html) def loadRequest(self, url): """ 发送请求,返回响应 url: 发送请求的url地址 """ request = urllib2.Request(url, headers = self.headers) #request = urllib2.Request(url) response = urllib2.urlopen(request) return response.read() def loadPage(self, html): """ 提取每个帖子的url,并发送请求,获取响应 html: 贴吧每一页的html """ content = etree.HTML(html) print '------' print content # xpath 返回的所有匹配成功后的结果的列表 #pagelink_list = content.xpath("//div[@class='threadlist_lz clearfix']/div/a[@class='j_th_tit']/@href") pagelink_list = content.xpath("//div[@class='col2_right j_threadlist_li_right']//div/a/@href") pagelink_list = content.xpath("//div[@class='t_con cleafix']//div/a/@href") for link in pagelink_list: print link self.loadImage(self.loadRequest(self.baseURL + link)) def loadImage(self, html): """ 提取帖子里用户发送的图片的url地址 html: 每个帖子的html """ content = etree.HTML(html) imagelink_list = content.xpath("//div[@class='p_content ']//img[@class='BDE_Image']/@src") for link in imagelink_list: self.writeImage(self.loadRequest(link), link[-10:]) def writeImage(self, data, filename): """ 将图片的响应数据,写入到本地磁盘里 data: 图片的响应数据 filename: 文件名(图片url的后10位) """ print "正在保存图片...%s" % filename with open(filename, "wb") as f: f.write(data) if __name__ == "__main__": tieba = Tieba() tieba.startWork()
以上是“如何使用Python实现的爬取百度贴吧图片功能”这篇文章的所有内容,感谢各位的阅读!相信大家都有了一定的了解,希望分享的内容对大家有所帮助,如果还想学习更多知识,欢迎关注创新互联行业资讯频道!
我们在微信上24小时期待你的声音
解答本文疑问/技术咨询/运营咨询/技术建议/互联网交流