Python爬虫实战(高级篇)—3百度翻译网页版爬虫(附完整代码)

首先这篇文章是转载的,但是我看懂了,经过修改成功了!!

请添加图片描述

PS上一节课:请查看【爬虫专栏

本文所需的库(其余为内置库):

安装
js2py pip install js2py
requests pip install requests

我依照原帖的思路讲一下:

第 1 步,进入百度翻译网页版:点我

第 2 步 分析所需参数

这里我们发现所需的参数:

1、sign(这是最重要的!!)

2、token

3、ts,时间戳

第 3 步 分析sign 加密代码,这里我就直接展示出来了

请将该文件命名【webtrans.js】

// webtrans.js

function n(r, o) {
   
    
    
    for (var t = 0; t < o.length - 2; t += 3) {
   
    
    
        var a = o.charAt(t + 2);
        a = a >= "a" ? a.charCodeAt(0) - 87 : Number(a),
        a = "+" === o.charAt(t + 1) ? r >>> a : r << a,
        r = "+" === o.charAt(t) ? r + a & 4294967295 : r ^ a
    }
    return r
}
function e(r) {
   
    
    
    var o = r.match(/[\uD800-\uDBFF][\uDC00-\uDFFF]/g);
    if (null === o) {
   
    
    
        var t = r.length;
        t > 30 && (r = "" + r.substr(0, 10) + r.substr(Math.floor(t / 2) - 5, 10) + r.substr(-10, 10))
    } else {
   
    
    
        for (var e = r.split(/[\uD800-\uDBFF][\uDC00-\uDFFF]/), C = 0, h = e.length, f = []; h > C; C++)
            "" !== e[C] && f.push.apply(f, a(e[C].split(""))),
            C !== h - 1 && f.push(o[C]);
        var g = f.length;
        g > 30 && (r = f.slice(0, 10).join("") + f.

猜你喜欢

转载自blog.csdn.net/weixin_42636075/article/details/131944694
今日推荐