当前位置:首页 » 《随便一记》 » 正文

朋友很喜欢打篮球,我用Python爬取了1000张他喜欢的NBA球星图片送给他【内附源码】_AI19970205的博客

25 人参与  2022年03月31日 18:14  分类 : 《随便一记》  评论

点击全文阅读


大家好,我是辣条。

前言

朋友快过生日了,不知道送啥礼物【绝对不是因为我抠】,想着他非常喜欢打篮球,篮球他很多个了,应该也不会缺【不会是因为篮球贵】,那我就用技术白嫖点东西送给他吧,爬虫首当其冲呀,必须安排一波,于是我的灵感来了,爬取一波他喜欢的NBA球星图片送给他,再整点活合作一张大图,那效果不就出来了,这波真不错【辣条送礼物提示:送好朋友或者男女朋友礼物,不要只看价格,要看对方需要什么想要什么,礼轻情意重,主要是省钱…】

领取福利👉

300+Python经典编程案例
50G+学习视频教程
100+Python初阶、中阶、高阶电子书籍
1000+简历模板和汇报PPT模板(转正、年终等)

在这里插入图片描述

爬取目标

网址:百度一下
在这里插入图片描述

效果展示

在这里插入图片描述

工具准备

开发工具:Visual Studio Code
开发环境:python3.7, Windows10
使用工具包:requests

项目解析思路

获取当当前网页的跳转地址,当前页面为主页面数据,我们需要的数据别有一番天地,获取到网页信息提取出所有的跳转地址,获取到源码里的a标签就行当前网页的加载方式为静态数据,直接请求网页地址;

url = 'https://image.baidu.com/search/acjson?

从源代码里提取到所以的跳转地址
在这里插入图片描述
【这是个很简单的代码,不做详细思路解析了,平台对爬虫的文章的审核比以前严格很多了,代码我留着,有啥不懂的评论提出,或者私信我,我看到了都会解答】

简易源码分享

import requests
import json
import time
import os

def crawl(page):
    if not os.path.exists('D://111'):
        os.mkdir('D://111')
    url = 'https://image.baidu.com/search/acjson?'
    header = {
        # 'Referer': 'https://image.baidu.com/search/index?ct=201326592&cl=2&st=-1&lm=-1&nc=1&ie=utf-8&tn=baiduimage&ipn=r&rps=1&pv=&fm=rs4&word',
        'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/89.0.4389.82 Safari/537.36'
    }
    param = {
    "tn": "resultjson_com",
    "logid": "11007362803069082764",
    "ipn": "rj",
    "ct": "201326592",
    "is": "",
    "fp": "result",
    "queryWord": "NBA",
    "cl": "2",
    "lm": "-1",
    "ie": "utf-8",
    "oe": "utf-8",
    "adpicid": "",
    "st": "-1",
    "z": "",
    "ic": "",
    "hd": "",
    "latest": "",
    "copyright": "",
    "word": "NBA",
    "s": "",
    "se": "",
    "tab": "",
    "width": "",
    "height": "",
    "face": "0",
    "istype": "2",
    "qc": "",
    "nc": "1",
    "fr": "",
    "expermode": "",
    "force": "",
    "pn": page,
    "rn": "30",
    "gsm": "1e",
    "1615565977798": "",
    }
    response = requests.get(url, headers=header, params=param)
    img = response.text
    j = json.loads(img)
    # print(j)
    img_list = []
    for i in j['data']:    #获得j字典数据里面的data所对应的值  值是一个列表 通过for循环拿去列表里的每一个元素
        if 'thumbURL' in i:
            # print(i['thumbURL'])
            img_list.append(i['thumbURL'])   #追加到列表中
    print(len(img_list))          #打印URL的数量

    for count,n in enumerate(img_list):
        r = requests.get(n, headers=header)
        with open(f'D://111/{count+1}.jpg', 'wb') as f:
            f.write(r.content)
        # count += 1

# if __name__ == '__main__':
for i in range(30, 61, 10):   #起始值   终点值  步长
    t1 = time.time()
    crawl(i)
    t2 = time.time()
    t = t2 - t1
    print(f'page {i//30} is over!!!  耗时{t:.2f}秒!')    #.2f两位小数

【PS:最后还是会发红包给朋友的,很好的关系,调侃归调侃,但是红包不能少】

👇🏻 添加 博主 获取更多学习、视频、文档资料👇🏻

点击全文阅读


本文链接:http://zhangshiyu.com/post/37097.html

跳转  获取  地址  
<< 上一篇 下一篇 >>

  • 评论(0)
  • 赞助本站

◎欢迎参与讨论,请在这里发表您的看法、交流您的观点。

关于我们 | 我要投稿 | 免责申明

Copyright © 2020-2022 ZhangShiYu.com Rights Reserved.豫ICP备2022013469号-1