最新动态
python app爬虫 前进后退_Python爬虫新手教程:手机APP数据抓取 pyspider
2024-12-16 12:05

1. 手机APP数据----写在前面

继续练习pyspider的使用,最近搜索了一些这个框架的一些使用技巧,发现文档竟然挺难理解的,不过使用起来暂时没有障碍,估摸着,要在写个5篇左右关于这个框架的教程。今天教程中增加了图片的处理,你可以重点学习一下。

2. 手机APP数据----页面分析

咱要爬取的网站是 http://www.liqucn.com/rj/new/ 这个网站我看了一下,有大概20000页,每页数据是9个,数据量大概在180000左右,可以抓取下来,后面做数据分析使用,也可以练习优化数据库。

网站基本没有反爬措施,上去爬就可以,略微控制一下并发,毕竟不要给别人服务器太大的压力。

页面经过分析之后,可以看到它是基于URL进行的分页,这就简单了,我们先通过首页获取总页码,然后批量生成所有页码即可

http://www.liqucn.com/rj/new/?page=1

http://www.liqucn.com/rj/new/?page=2

http://www.liqucn.com/rj/new/?page=3

http://www.liqucn.com/rj/new/?page=4

获取总页码的代码

class Handler(baseHandler):

crawl_config = {

}

@every(minutes=24 * 60)

def on_start(self):

self.crawl('http://www.liqucn.com/rj/new/?page=1', callback=self.index_page)

@config(age=10 * 24 * 60 * 60)

def index_page(self, response):

# 获取最后一页的页码

totle = int(response.doc(".current").text())

for page in range(1,totle+1):

self.crawl('http://www.liqucn.com/rj/new/?page={}'.format(page), callback=self.detail_page)

Python资源分享qun 784758214 ,内有安装包,PDF,学习视频,这里是Python学习者的聚集地,零基础,进阶,都欢迎

然后copy一段官方中文翻译,过来,时刻提醒自己

代码简单分析

def on_start(self) 方法是入口代码。当在web控制台点击run按钮时会执行此方法。

self.crawl(url, callback=self.index_page)这个方法是调用API生成一个新的爬取任务

这个任务被添加到待抓取队列。

def index_page(self, response) 这个方法获取一个Response对象。

response.doc是pyquery对象的一个扩展方法。pyquery是一个类似于jQuery的对象选择器。

def detail_page(self, response)返回一个结果集对象。

这个结果默认会被添加到resultdb数据库(如果启动时没有指定数据库默认调用sqlite数据库)。你也可以重写

on_result(self,result)方法来指定保存位置。

更多知识

@every(minutes=24*60, seconds=0) 这个设置是告诉scheduler(调度器)on_start方法每天执行一次。

@config(age=10 * 24 * 60 * 60) 这个设置告诉scheduler(调度器)这个request(请求)过期时间是10天

10天内再遇到这个请求直接忽略。这个参数也可以在self.crawl(url, age=10*24*60*60) 和 crawl_config中设置。

@config(priority=2) 这个是优先级设置。数字越大越先执行。

分页数据已经添加到待爬取队列中去了,下面开始分析爬取到的数据,这个在detail_page函数实现

@config(priority=2)

def detail_page(self, response):

docs = response.doc(".tip_blist li").items()

dicts = []

for item in docs:

title = item(".tip_list>span>a").text()

pubdate = item(".tip_list>i:eq(0)").text()

info = item(".tip_list>i:eq(1)").text()

# 手机类型

category = info.split("")[1]

size = info.split("/")

if len(size) == 2:

size = size[1]

else:

size = "0MB"

app_type = item("p").text()

mobile_type = item("h3>a").text()

# 保存数据

# 建立图片下载渠道

img_url = item(".tip_list>a>img").attr("src")

# 获取文件名字

filename = img_url[img_url.rindex("/")+1:]

# 添加软件logo图片下载地址

self.crawl(img_url,callback=self.save_img,save={"filename":filename},validate_cert=False)

dicts.append({

"title":title,

"pubdate":pubdate,

"category":category,

"size":size,

"app_type":app_type,

"mobile_type":mobile_type

})

return dicts

Python资源分享qun 784758214 ,内有安装包,PDF,学习视频,这里是Python学习者的聚集地,零基础,进阶,都欢迎

数据已经集中返回,我们重写on_result来保存数据到mongodb中,在编写以前,先把链接mongodb的相关内容编写完毕

import os

import pymongo

import pandas as pd

import numpy as np

import time

import json

DATAbase_IP = '127.0.0.1'

DATAbase_PORT = 27017

DATAbase_NAME = 'sun'

client = pymongo.MongoClient(DATAbase_IP,DATAbase_PORT)

db = client.sun

db.authenticate("dba", "dba")

collection = db.liqu # 准备插入数据

数据存储

def on_result(self,result):

if result:

self.save_to_mongo(result)

def save_to_mongo(self,result):

df = pd.Dataframe(result)

#print(df)

content = json.loads(df.T.to_json()).values()

if collection.insert_many(content):

print('存储到 mongondb 成功')

获取到的数据,如下表所示。到此为止,咱已经完成大部分的工作了,最后把图片下载完善一下,就收工啦

3. 手机APP数据----图片存储

图片下载,其实就是保存网络图片到一个地址即可

def save_img(self,response):

content = response.content

file_name = response.save["filename"]

python app爬虫 前进后退_Python爬虫新手教程:手机APP数据抓取 pyspider

#创建文件夹(如果不存在)

if not os.path.exists(DIR_PATH):

os.makedirs(DIR_PATH)

file_path = DIR_PATH + "/" + file_name

with open(file_path,"wb" ) as f:

f.write(content)

Python资源分享qun 784758214 ,内有安装包,PDF,学习视频,这里是Python学习者的聚集地,零基础,进阶,都欢迎

到此为止,任务完成,保存之后,调整爬虫的抓取速度,点击run,数据跑起来~~~~

    以上就是本篇文章【python app爬虫 前进后退_Python爬虫新手教程:手机APP数据抓取 pyspider】的全部内容了,欢迎阅览 ! 文章地址:http://ww.kub2b.com/news/4541.html
     栏目首页      相关文章      动态      同类文章      热门文章      网站地图      返回首页 企库往资讯移动站 http://ww.kub2b.com/mobile/ , 查看更多   
最新文章
荣耀手机数据恢复教程荣耀手机找回「荣耀手机数据恢复教程」
在使用荣耀手机的过程中,大家难免会遇到不小心删除重要照片的情况。这些照片可能包含了珍贵的回忆,一旦丢失,可能会让人感到非
手机副卡怎么注销手机副卡「手机副卡怎么注销」
随着移动通信技术的不断发展,手机副卡已成为许多家庭或企业用户的常用选择,它为用户提供了更多的便利和灵活性。然而,当不再需
三星s8怎么样值得买吗 64G版苏宁易购4999元s8手机「三星s8怎么样值得买吗 64G版苏宁易购4999元」
  【PConline 导购】当下很多手机都有一流的硬件配置和出色的使用体验,消费者在购机时也会优先考虑这些产品。就拿三星的旗舰
马拉松赛道上的奇特造型,究竟是展示自我还是博眼球,你怎么看?
或许你会发现,每次马拉松比赛都会出现奇特造型的人物。这不,2025象山马拉松也有一些打扮另类的跑者,他们的出现瞬间成为赛道上
售价21万的诺基亚Vertu手机 你肯定没用过!手机超长待机「售价21万的诺基亚Vertu手机 你肯定没用过!」
人人都说知道诺基亚,但你真的通晓诺基亚吗?在诺基亚旗下奢侈手机公司VERTU(威图、纬图)相信很多人都不知道。而Vertu品牌研发
苹果11原相机自拍是反的怎么调回来苹果手机拍照怎么是反的「苹果11原相机自拍是反的怎么调回来」
  苹果iPhone11(系统版本是iOS 14)相机自拍呈现反方向是【平面镜成像】原理,可在自带的相机设置中修改拍摄方向,也可以在自
阿维塔06即将上市,1天后公布价格
06倒计时一天,实际上有必要重新认识一下这个品牌。阿维塔成立于2018年,主要大事件:2021年阿维塔科技全球品牌首发,正式亮相,
最新个人简历电子版 个人简历手机版免费(三篇)手机简历「最新个人简历电子版 个人简历手机版免费(三篇)」
无论是身处学校还是步入社会,大家都尝试过写作吧,借助写作也可以提高我们的语言组织能力。写范文的时候需要注意什么呢?有哪些
360行车记录仪,走过风景,走过你——体验G300 3K版前,我要分享一份记录仪避坑指南!360行车记录仪怎么连接手机「360行车记录仪,走过风景,走过你——体验G300 3K版前,我要分享一份记录仪
***感谢众测君翻牌,感谢品牌方信任***说起,大家应该都不陌生了。这东西除了能让你在说不清的时候说清楚,还有点其他用处。比如