当前位置:首页 » 《随便一记》 » 正文

用python爬取豆瓣影评及影片信息(评论时间、用户ID、评论内容)

7 人参与  2023年04月05日 09:24  分类 : 《随便一记》  评论

点击全文阅读


爬虫入门:python爬取豆瓣影评及影片信息:影片评分、评论时间、用户ID、评论内容

思路分析元素定位完整代码

豆瓣网作为比较官方的电影评价网站,有很多对新上映影片的评价,不多说,直接进入正题。
豆瓣电影网页

思路分析

爬取的目标网站为豆瓣网,链接: https://movie.douban.com/chart。可以看到最新上映的电影的相关信息,但是含有电影评论的网址是一个二级链接,需要点击电影进入详细信息才可以查看,所以第一步需要获得影片的链接。观察后可以看到链接如下:
二级网址链接形式
使用BeautifulSoup和正则表达式re库可以解析这个网站所在的class以及确定具体链接所在的位置,具体方式如下:

bs = BeautifulSoup(html.text,'html.parser')movie_list = bs.find_all(class_='item')#定位链接元素links = re.compile('class="nbg" href="(.*?)" title=')links = re.findall(links,str(movie_list))

可以在控制台看到是否查询成功,得到的结果如下:

['https://movie.douban.com/subject/35118954/', 'https://movie.douban.com/subject/35414623/', 'https://movie.douban.com/subject/35230876/', 'https://movie.douban.com/subject/34477861/', 'https://movie.douban.com/subject/35507172/', 'https://movie.douban.com/subject/35700395/', 'https://movie.douban.com/subject/30362175/', 'https://movie.douban.com/subject/35240235/', 'https://movie.douban.com/subject/35073886/', 'https://movie.douban.com/subject/35056243/']在这里插入代码片

拿到这些链接之后,在分别请求这些链接,分析页面,就可以拿到最后所需要的数据。

for item in links:#TODO 解析页面 定位元素...pass

元素定位

分析页面 得到各个所需的信息所在位置 综合使用re和BeautifulSoup定位即可 以用户ID为例:(因为这里有短评和长评两种,所以分开查询)

 #用户名称    user = comment.find_all(class_ = 'comment-info')    user = re.findall('href.*?/">(.*?)</a>',str(user))    subscriber = re.findall('class="name".*?href.*?/">(.*?)</a>',str(long_comment))    #print(subscriber) 打印用户名称信息    #['CydenyLau', '斯宾诺莎画板', 'Zion', '莫选好片', '小小X', '今夜', 'Maggie_in_LA', 'Gary', '辉兔的爱与生活', '职业影迷']

这里有一个小tips:查找元素的时候要由大到小查询,先查询大的包含的元素,在慢慢锁定自己需要的内容、有用的信息。理论上来说是可以直接用re精确定位到自己所需要的元素 但是这样定位的精度低、错误率高,不建议使用。

完整代码

完整代码如下,复制就可以直接使用,最后使用Dataframe存储数据,也可以保存到本地:

import requestsimport refrom bs4 import BeautifulSoupimport pandas as pdurl = 'https://movie.douban.com/chart'#headers是将爬虫脚本伪装为浏览器请求 如果没有浏览器headers 请求结果是空的 所以一定要加headersheaders = {    'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/105.0.0.0 Safari/537.36'}html = requests.get( url , headers = headers)bs = BeautifulSoup(html.text,'html.parser')movie_list = bs.find_all(class_='item')#定位链接元素links = re.compile('class="nbg" href="(.*?)" title=')links = re.findall(links,str(movie_list))#为代码整洁 减少冗余代码 def collection_data(pakeage = None ,data = None):    for item in data:        item.replace(" " ,'')        pakeage.append(item)    return pakeage#声明容器movies_title,release_date,movies_rate,comment_user,movie_comment,comment_postline= [],[],[],[],[],[]#通过链接找到新的页面for item in links[:1]:    page = requests.get(item,headers=headers)    page = BeautifulSoup(page.text,'html.parser')    #标题    title = page.find_all(id = 'content' )    set_title = re.compile('property="v:itemreviewed">(.*?)</span>')    title = re.findall(set_title,str(title))    #年份    year = page.find_all(class_ = 'year')    year = re.findall(">(.*?)</span>",str(year))        #评分    rate = page.find_all(class_ = 'll rating_num')    rate = re.findall('"v:average">(.*?)</strong>',str(rate))    #短评信息    comment = page.find_all(class_="comment")    comment = BeautifulSoup(str(comment),'html.parser')    #发表时间    postline = comment.find_all(class_= 'comment-time')    postline = re.findall('title="(.*?)"',str(postline))    #评论内容    short_commentary = comment.find_all(class_ = 'comment-content')    short_commentary = re.findall('"short">(.*?)</span>',str(short_commentary))    #用户名称    user = comment.find_all(class_ = 'comment-info')    user = re.findall('href.*?/">(.*?)</a>',str(user))        #正常影评    long_comment = page.find_all(class_ = 'main review-item' )    #用户    subscriber = re.findall('class="name".*?href.*?/">(.*?)</a>',str(long_comment))    #评论发表时间    long_comment = BeautifulSoup(str(long_comment),'html.parser')    set_time = re.compile('main-meta".*?">(.*?)</span>')    posttime = re.findall(set_time,str(long_comment))    #    commentary = long_comment.find_all(class_ = 'short-content' )    set_comment = re.compile('"short-content">(.*?)\(<a.*?</a>',re.S)    commentary = re.findall(set_comment,str(commentary))        comment_user = collection_data(comment_user,user)    comment_user = collection_data(comment_user,subscriber)    movie_comment = collection_data(movie_comment,short_commentary)    movie_comment = collection_data(movie_comment,commentary)    comment_postline = collection_data(comment_postline,postline)    comment_postline = collection_data(comment_postline,posttime)    for i in range(len(comment_postline)):        movies_title = collection_data(movies_title,title)        release_date = collection_data(release_date,year)        movies_rate = collection_data(movies_rate,rate)dataframe = pd.DataFrame({    "title":movies_title,    "release_date":release_date,    "rate":movies_rate,    "user":comment_user,    "comment":movie_comment,    "postline":comment_postline})#保存信息到本地#dataframe.tocsv("本地路径",encoding = 'gbk')

如果对本文有任何疑问 欢迎讨论交流!点个赞再走哦!


点击全文阅读


本文链接:http://zhangshiyu.com/post/58379.html

<< 上一篇 下一篇 >>

  • 评论(0)
  • 赞助本站

◎欢迎参与讨论,请在这里发表您的看法、交流您的观点。

最新文章

  • 祖母寿宴,侯府冒牌嫡女被打脸了(沈屿安秦秀婉)阅读 -
  • 《雕花锦年,昭都旧梦》(裴辞鹤昭都)完结版小说全文免费阅读_最新热门小说《雕花锦年,昭都旧梦》(裴辞鹤昭都) -
  • 郊区41号(许洛竹王云云)完整版免费阅读_最新全本小说郊区41号(许洛竹王云云) -
  • 负我情深几许(白诗茵陆司宴)完结版小说阅读_最热门小说排行榜负我情深几许白诗茵陆司宴 -
  • 九胞胎孕妇赖上我萱萱蓉蓉免费阅读全文_免费小说在线看九胞胎孕妇赖上我萱萱蓉蓉 -
  • 为保白月光,侯爷拿我抵了债(谢景安花田)小说完结版_完结版小说全文免费阅读为保白月光,侯爷拿我抵了债谢景安花田 -
  • 陆望程映川上官硕《我的阿爹是带攻略系统的替身》最新章节阅读_(我的阿爹是带攻略系统的替身)全章节免费在线阅读陆望程映川上官硕
  • 郑雅琴魏旭明免费阅读_郑雅琴魏旭明小说全文阅读笔趣阁
  • 头条热门小说《乔书意贺宴临(乔书意贺宴临)》乔书意贺宴临(全集完整小说大结局)全文阅读笔趣阁
  • 完结好看小说跨年夜,老婆初恋送儿子故意出车祸_沈月柔林瀚枫完结的小说免费阅读推荐
  • 热推《郑雅琴魏旭明》郑雅琴魏旭明~小说全文阅读~完本【已完结】笔趣阁
  • 《你的遗憾与我无关》宋怀川冯洛洛无弹窗小说免费阅读_免费小说大全《你的遗憾与我无关》宋怀川冯洛洛 -

    关于我们 | 我要投稿 | 免责申明

    Copyright © 2020-2022 ZhangShiYu.com Rights Reserved.豫ICP备2022013469号-1