搭建一个新闻推荐网站(一)

起因     

三点原因吧:

  • 平时打开手机最常做的就是看新闻!!(第二微信) 
  • 而且大部分的媒体都在“今日头条化”(本人拙见),各类戏子新闻满天飞,实在是污染眼球 
  • 既然是计算机专业的学生那就自己动手搞一个吧!

项目的总体思路

首先你需要有这些新闻数据,而且每天都会更新。所以需要一个可维护的可扩展的获取数据的程序

我选择了Python作为开发语言,scrapy作为数据源,web框架待定。Django就算了(Django就有点杀鸡用牛刀了,而且我不喜欢Django,封装的太过分了),flask或者web.py任选之一。

通过Scrapy抓取数据,清洗之后存放到MySQL数据库,在网站端展示出来,并且给每条新闻一个评分功能,让用户为他看到的新闻打分,通过交替最小二乘法对用户进行推荐,这里我还要使用spark进行计算,大致思路就是这样的。

今天记录的第一部分就是关于搭建Scrapy

Scrapy是Python里很流行的一个爬虫框架,不再说废话了,开始做了!

  • 先安装scrapy(没装Python和pip的就别往下看了),cmd输入  pip install scrapy
  • 选择你的项目目录,进去:shift+鼠标右键---->在此处打开命令窗口   输入:scrapy startproject Hunter
  • 准备工作都OK了,在你的IDE里导入项目开始编程吧,我用的Pycharm,你可以随便选一个你喜欢的
  • 项目目录的截图是这样的(这里面我做了改动了,初始的目录你可以在你的本地看到)

    items文件夹里是item文件,它定义了你需要抓取得字段,每个item是一个字典类型,后续我会写到

    pipelines里的文件对你获取的item数据进行操作,你可以清洗、筛选、过滤、存储它们

    spiders里的文件是你的页面解析文件

    settings文件显然是一个配置文件

    utils_box文件夹,这里我存放一些工具,后面会涉及(你也可以不写)

    begin.py文件是一个项目开始的执行文件

    主要的我都介绍了,其余的涉及会谈到,scrapy的大致简化流程就是:1、在item里定义你要获取的信息 2、在spider里去解      析网页获得item里的对应信息,传递给item对象并且yield抛出  3、pipeline会接到你抛出的item对象,对它进行处理

  • 看一下item(只截图了,代码会放在GitHub上)
     
    先写一个简化版的,暂时只需要这些字段信息

  • 我们的spider(这里抓取日本共同社新闻网为例,https://china.kyodonews.net/ 这家媒体的报道具有一定的参考性,而且网站页面结构很稳定,很少改动,get请求就可以获取HTML)
#!/usr/bin/python
# -*- coding: utf-8 -*-
# shq


from scrapy import Spider, Request
from Hunter.items import items
import os
import re
from urlparse import urljoin


class GongTongCHNJPN(Spider):
    name = "gong_tong_CHN_JPN_spider"   #每个spider都有个自己的名字,每个spider的标识
    start_urls = [
        'https://china.kyodonews.net/news/japan-china_relationship'
    ]

    def parse(self, response):  #parse是scrapy的默认函数,它接收请求start_urls之后的response
        try:            #scrapy使用xpath定位页面元素,xpath效率更高
            every_li = response.xpath('//ul[@id="js-postListItems"]/li')

            for li in every_li:
                every_url = urljoin(response.url, li.xpath('.//a/@href').extract_first())
                title = li.xpath('.//a/h3/text()').extract_first()
                time = li.xpath('.//p[@class="time"]/text()').extract_first()
                yield response.follow(every_url, callback=self.parse_every, meta={'title': title, 'time': time})
                #将第一个页面提取的url继续向下抛出,抛给parse_every函数


        except Exception:
            import traceback
            traceback.print_exc()

    def parse_every(self, response):

        try:
            texts = ''.join(response.xpath('//div[@class="article-body"]/p/text()').extract()) #这个网站结构性非常好
            get_url = response.xpath('//div[@class="mainpic"]/img/@src').extract_first()
            item = items.NewsItem()  #得到一个item对象
            item['title'] = response.meta.get('title')
            item['time'] = response.meta.get('time').replace(' ','').replace('\n','').replace('\r','').replace('\t','').replace(u'\u3000','').replace(u'\xa0','').replace('|','')
            item['source'] = response.url
            item['origin'] = u"日本共同社"
            item['news_type'] = u"中日"
            item['lable'] = u"政治"
            item['content'] = texts
            if get_url:
                photo_url = urljoin(response.url, get_url)
                item['image_src'] = photo_url
            else:
                item['image_src'] = ''
            print item
            yield item  抛出item,抛给管道



        except Exception:
            import traceback
            traceback.print_exc()
先写到这,下一篇继续。

(抱着学习的态度来到社区,如有错误请指正,保持进步!)

猜你喜欢

转载自blog.csdn.net/qq_38322240/article/details/80638267