用Python爬虫的request方式实现自动签到!

python

使用selenium实现自动签到确实是一个方便快捷的方式,但不可否认的是这种方式确实有一个硬伤,就是太慢了,模拟浏览器进行加载、点击操作,即使用上显性等待这种高端操作也最多只能把整个运行过程优化到5秒以内。

作为一个有性能洁癖的程序猿,5秒显然是我不能接受的。那还有什么方式比它更快呢,很简单,直接发post请求啊,直接对网站发起post或get请求永远是最快的方式,网上流传的各种秒杀脚本用的也是这种方式。

requests库的使用

本来之前用scrapy做了一个版本,结果发现为了实现这么个小功能用scrapy太过笨重,代码量还多,干脆换成requests。

requests库的使用方法非常简单,网上有对应的中文文档可以参考requests文档。

直接上代码

response = requests.get("http://www.baidu.com")

print(response.text)

post请求则是要先实例化一个session对象,用session对象进行后续的post请求和其他操作,session对象会为你保存你的登录状态,包括cookie等内容。

form_data1 = {"mobile": "xxxx",

              "mobileErr": "",

              "password": "xxxx",

              "passwordErr": "",

              "uuid": "0",

              "mid": "0"}

s = requests.Session()

response = s.post(login_url, data=form_data)

# print(response.text)

当session携带了登录信息之后就可以进行后续的签到操作,而签到操作也很简单,直接用gei请求访问一下签到按钮对应的链接即可。

当然无论是获取签到按钮的链接还是获取登录所需要的的form表单数据都离不开抓包。

我用的抓包软件是Fiddler,抓包这里我就不详细讲了,网上可以搜到很多教程。

最后把完整代码放一下。

import requests

import sys

import traceback

login_url = "https://gf2.wmbuluo.com/addons/yun_shop/api.php?i=2&uuid=0&mid=0&type=5&shop_id=null&route=member.login.index"

target_url = 'https://gf2.wmbuluo.com/addons/yun_shop/api.php?i=2&uuid=0&mid=0&type=5&shop_id=null&route=plugin.sign.Frontend.Modules.Sign.Controllers.sign.sign'

form_data1 = {"mobile": "xxxx",

              "mobileErr": "",

              "password": "xxxx",

              "passwordErr": "",

              "uuid": "0",

              "mid": "0"}

def run(form_data):

    s = requests.Session()

    response = s.post(login_url, data=form_data)

    # print(response.text)

    # print(response.status_code)

    if response.status_code == 200:

        resp = s.get(target_url)

        print(resp.status_code)

def main():

    run(form_data1)

    print("run1")

if __name__ == '__main__':

    try:

        sys.exit(main())

    except Exception as e:

        traceback.print_exc()

更多Python知识,请关注云海天Python教程!!

以上是 用Python爬虫的request方式实现自动签到! 的全部内容, 来源链接: utcz.com/z/529409.html

回到顶部