当前位置:首页 » 《随便一记》 » 正文

过年不再被逼相亲——我用python给亲戚展示2022的相亲数据

2 人参与  2022年12月28日 13:29  分类 : 《随便一记》  评论

点击全文阅读


人生苦短 我用Python

这不是快过年了吗?

又到了一年一度的亲戚大考验环节…


没对象的他们会问你,找对象了吗?

你要是学计算机专业的,他们会问你,会修电脑吗?

出去学了点啥他们也会要求“才艺展示一下

我相信大家都躲不过去


既然躲不过去,那直接上猛药给亲戚吓一跳吧

用python直接来采集一波相亲网站,并做数据分析

又给亲戚露一手,又向他们表达了自己单着是客观不可抗力

这波,啊这波,我看谁还敢催我找对象???

在这里插入图片描述


环境开发:

Python 3.8Pycharm

模块使用:

    import parsel       --> pip install parsel    import requests     --> pip install requests    import csv    import re

思路流程:

一. 数据来源分析:

1. 明确需求:
采集数据是什么 —> 资料数据 <静态网页>
都是在网页源代码里面

在这里插入图片描述

二. 代码实现步骤:

1.发送请求,模拟浏览器对于url地址发送请求
2.获取数据,获取服务器返回响应数据
3.解析数据,提取我们想要数据内容
4.保存数据,把数据内容保存本地


开始代码:导入数据请求模块

源码、资料电子书点击这里

import requests# 导入数据解析模块import parsel# 导入csvimport csv# 导入正则import ref = open('data.csv', mode='a', encoding='utf-8', newline='')csv_writer = csv.DictWriter(f, fieldnames=['昵称',                                           '性别',                                           '年龄',                                           '身高',                                           '体重',                                           '出生日期',                                           '生肖',                                           '星座',                                           '籍贯',                                           '所在地',                                           '学历',                                           '婚姻状况',                                           '职业',                                           '年收入',                                           '住房',                                           '车辆',                                           '照片',                                           '详情页',                                           ])csv_writer.writeheader()

在这里插入图片描述
在这里插入图片描述

都是一些公开数据


1. 发送请求, 模拟浏览器对于url地址发送请求

模拟浏览器 headers 请求头

可以在开发者工具里面复制粘贴的

防止被反爬

<Response [200]> 响应对象

200状态码 表示请求成功

for page in range(1, 11):
    # 伪装模拟    headers = {        # User-Agent 用户代理, 表示浏览器基本信息        'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/101.0.0.0 Safari/537.36'    }

发送请求

    response = requests.get(url=url, headers=headers)    print(response)

2. 获取数据, 获取服务器返回响应数据

开发者工具 —> response

response.json() 获取响应json数据, 字典数据类型

3. 解析数据, 提取我们想要数据内容

详情页ID —> UID

因为得到数据: 字典数据类型

所以解析数据: 键值对取值 —> 根据冒号左边的内容[键], 提取冒号右边的内容[值]

    # for循环遍历, 把列表里面元素一个一个提取出来    for index in response.json()['data']['items']:        #  https://love.19lou.com/detail/51593564  format 字符串格式化方法        link = f'https://love.19lou.com/detail/{index["uid"]}'

4. 发送请求, 模拟浏览器对于url地址发送请求

资料详情页url地址

5. 获取数据, 获取服务器返回响应数据

网页源代码

response.text 获取响应文本数据, 返回字符串数据类型

response.json() 获取响应json数据, 字典数据类型

        html_data = requests.get(url=link, headers=headers).text

6. 解析数据, 提取我们想要数据内容

基本资料信息

css选择器: 根据标签属性内容提取数据

xpath: 根据标签节点提取数据

re正则

        # 把获取下来 html字符串数据<html_data>, 转成可解析对象        selector = parsel.Selector(html_data)        name = selector.css('.username::text').get()        info_list = selector.css('.info-tag::text').getall()        # . 表示调用方法属性        gender = info_list[0].split(':')[-1]        age = info_list[1].split(':')[-1]        height = info_list[2].split(':')[-1]        date = info_list[-1].split(':')[-1]        # 判断info_list元素个数  当元素个数4个 说明没有体重一栏        if len(info_list) == 4:            weight = '0kg'        else:            weight = info_list[3].split(':')[-1]        info_list_1 = selector.css('.basic-item span::text').getall()[2:]        zodiac = info_list_1[0].split(':')[-1]        constellation = info_list_1[1].split(':')[-1]        nativePlace = info_list_1[2].split(':')[-1]        location = info_list_1[3].split(':')[-1]        edu = info_list_1[4].split(':')[-1]        maritalStatus = info_list_1[5].split(':')[-1]        job = info_list_1[6].split(':')[-1]        money = info_list_1[7].split(':')[-1]        house = info_list_1[8].split(':')[-1]        car = info_list_1[9].split(':')[-1]        img_url = selector.css('.page .left-detail .abstract .avatar img::attr(src)').get()        # 把获取下来的数据 保存字典里面  字典数据容器        dit = {            '昵称': name,            '性别': gender,            '年龄': age,            '身高': height,            '体重': weight,            '出生日期': date,            '生肖': zodiac,            '星座': constellation,            '籍贯': nativePlace,            '所在地': location,            '学历': edu,            '婚姻状况': maritalStatus,            '职业': job,            '年收入': money,            '住房': house,            '车辆': car,            '照片': img_url,            '详情页': link,        }        csv_writer.writerow(dit)        new_name = re.sub(r'[\/"*?<>|]', '', name)

保存图片, 获取图片二进制数据

        img_content = requests.get(url=img_url, headers=headers).content        with open('data\\' + new_name + '.jpg', mode='wb') as img:            img.write(img_content)        print(dit)

效果展示:

源码、资料电子书点击这里

在这里插入图片描述
在这里插入图片描述

整理成表:

在这里插入图片描述
在这里插入图片描述

今天的文章就是这样啦~

不管世界如何,只有学习,才能使你立于不败之地。


点击全文阅读


本文链接:http://zhangshiyu.com/post/50483.html

<< 上一篇 下一篇 >>

  • 评论(0)
  • 赞助本站

◎欢迎参与讨论,请在这里发表您的看法、交流您的观点。

最新文章

  • 我无名分,我不多嗔小说完结篇(陆景铄林悠悠)(我无名分,我不多嗔)全书无套路阅读无广告小说大结局
  • 奈何春风不曾渡我虐心反转_童烟沈叙白陆依在线看_小说后续在线阅读_无删减免费完结_
  • 鹿雪附加完整在线阅读(小祖宗她带着双宝闹翻天)最近更新列表
  • 你要战功我给你,妖兽入侵你哭啥高质量好文叶天凌筱完本_你要战功我给你,妖兽入侵你哭啥高质量好文(叶天凌筱)
  • 夫君和小三霸占了我的将军府,我杀疯了阅读_雪儿谭绍木兰全集_小说后续在线阅读_无删减免费完结_
  • 鹿溪小说(鹿溪)终章+番外(穿进恐怖游戏后,我和反派HE了)一口气阅读
  • 完结文留给儿子的副卡月月刷爆,他却因睡桥底被送进收容所列表_完结文留给儿子的副卡月月刷爆,他却因睡桥底被送进收容所(娄墨霆宋佑轩)
  • 你活着,却死在我等你的第三年后续+番外_谨言佳佳温以宁全集_小说后续在线阅读_无删减免费完结_
  • 相思溺于夏时雨小说(裴景澈初念可)章节目录+起始篇章(相思溺于夏时雨)全章无套路在线
  • 未婚夫重生归来叫停手术,把剥开肚子的我困在手术台上40分钟(裴临渊阮离歌)
  • 完结文离婚是你提,净身出户你又哭什么精彩分享列表_完结文离婚是你提,净身出户你又哭什么精彩分享(苏铭余素伊)
  • 全书浏览哥哥重生救我,我带队灭了组织!(陈致远陈知韫)_哥哥重生救我,我带队灭了组织!(陈致远陈知韫)全书结局

    关于我们 | 我要投稿 | 免责申明

    Copyright © 2020-2022 ZhangShiYu.com Rights Reserved.豫ICP备2022013469号-1