Advertisement

Python 简单的爬虫爬取网页框架(爬取网页框架+实例)

阅读量:

Python 这是一个基础的爬虫网页框架


Python爬取网页内容,其实大部分爬取都是在其源代码中寻找代码规律。
举个例子吧:
如:小说名的章节节数,第1~100章,我们找的话就是找第[ ]章中的[ ]内容,然后根据章节网页链接寻找规律进行跳转,把有规律的数字部分进行研究。


当然,我这次举的例子是爬取的豆瓣的top 500,网页电影名,评分,评论。

爬取效果部分

这是一个爬取到ex.txt文件实例

下面是代码部分:

不懂的地方,可以自己进行测试来加深自己的映像,感觉到了就抓住这个点去死磕它,通过解决问题,这样你就可以学会自己去掌握它。

本次爬虫涉及几个知识点.

  • 正则表达式
  • 文件的写入
  • 异常抛出处理
复制代码
    # 爬取豆瓣top 500
    # 电影名,评分,评论
    # 难易:⭐⭐
    # 一.导入
    # import re 导入re包
    # import requests 导入正则表达式
    #
    # def aa():
    #     rest = requests.get('https://movie.douban.com/top250') 二.访问链接
    
    #     s = rest.content.decode() 三.获取该网页源代码
    
    # 四.编写正则表达式,取到所需内容
    
    #     ss = re.findall(r'<span class="title">(.*)</span>',s) 爬取片名
    #     ss1 =re.findall(r'<span class="rating_num" property="v:average">(.*)</span>',s)   爬取评分
    #     ss2=re.findall(r'<span>(\d*)人评价</span>',s)    爬取评论
    
    # 五.去除无关信息
    #     b = []
    #     for i in range(len(ss)):
    #         aa = re.findall(r'&nbsp.*', ss[i])
    #         if aa == []:
    #             b.append(ss[i]) 得到所需信息 b=ss
    
    #六.写入文件
    #     for i in range(len(b)):
    #         print(b[i], ss1[i], ss2[i])
    #         with open(r"C:\Users\ 陈嘉玉\Desktop\ex.txt",'a+') as ff:
    #             ff.writelines(b[i]+' '+ss1[i]+' '+ss2[i]+'\n')
    
    #七.抛出异常
    # try:
    #     aa()
    #     print("已爬取")
    # # except Exception as c:##
    # #     print("爬取失败,错误提示:"+c)##
    # else:
    #     print("爬取失败,错误提示:"+c)

全部评论 (0)

还没有任何评论哟~