博客
关于我
Node实现小爬虫
阅读量:793 次
发布时间:2023-02-16

本文共 1927 字,大约阅读时间需要 6 分钟。

前言

node和Python一样适合做爬虫爬取数据进行解析输出相应格式的json数据。 这个项目爬虫的基本原理在,获取到页面的HTML内容,使用去解析HTML,操作DOM节点获取数据。

技术栈

node+express+axois

项目运行

git clone https://github.com/fancyzhe/nodeGetData.gitnpm installnpm start复制代码

在项目的package.json文件中定义了script"start": "nodemon app.js",用nodemon护node进程,所以是项目中直接运行的app.js

具体解析

引入项目所需要的模块

express作为服务器 cheerio将获取到的HTML内容解析成DOM节点 request请求接口数据 path定义静态文件访问路径

const express = require("express");const cheerio = require("cheerio");const request =  require("request");const path = require('path')const app = express();![](https://user-gold-cdn.xitu.io/2019/3/4/16946c12f810faeb?w=1838&h=438&f=png&s=416121)//定义要抓取数据的页面地址URLconst url = "https://movie.douban.com/";复制代码

定义抓取页面HTML内容并解析的方法getData

request请求异步,所以方法返回promise,在.then中去获取到request的数据。

function getData(){    let data =[];    return new Promise((resolve,reject)=>{        request(url,(err,res,body)=>{        	//body是页面的HTML内容,使用cheerio去解析它。            $ = cheerio.load(body);            //定义了$对象后,可以类似jQuery的用法去选择DOM节点            let content = $("#screening .ui-slide-item");            let length = content.length;            //获取的DOM节点对象数组进行循环,输出我们想要的json对象            while(length--){                let title = $(content[length]).attr("data-title");                title && data.push(title);            }            resolve(data)        })    })}复制代码

以在审查元素中看到电影的名字在#screening .ui-slide-item节点的data-title属性中,所以在上面的代码中用取节点的方式去取出我们想要的数据

定义接口/data

这里相当于是在后端定义了/data接口,本地访问localhost:3000/data就可以访问到send回来的数组data。

app.get("/data",(req,res)=>{    console.log("getData")    getData().then(data=>{        res.send(data)    })});复制代码

定义express静态文件访问路径

定义了静态文件后,可以在直接访问index.htm去请求接口,再根据数据去改变view。也可以将数据包装成自己想要的样子去render出自己的页面。

app.use(express.static(path.join(__dirname, 'public')))

express进行端口监听

app.listen(3000,()=>console.log("run 3000"))

最后

项目比较简单,没有用webpack起项目,只用简单的静态去映射出爬取的数据。这是一个node爬虫入门的小demo,了解爬虫的基本原理。

转载于:https://juejin.im/post/5c7c9bd6518825627c38e786

你可能感兴趣的文章
NIFI1.21.0通过Postgresql11的CDC逻辑复制槽实现_指定表多表增量同步_增删改数据分发及删除数据实时同步_通过分页解决变更记录过大问题_02----大数据之Nifi工作笔记0054
查看>>
NIFI1.23.2_最新版_性能优化通用_技巧积累_使用NIFI表达式过滤表_随时更新---大数据之Nifi工作笔记0063
查看>>
NIFI从MySql中增量同步数据_通过Mysql的binlog功能_实时同步mysql数据_根据binlog实现数据实时delete同步_实际操作04---大数据之Nifi工作笔记0043
查看>>
NIFI从MySql中增量同步数据_通过Mysql的binlog功能_实时同步mysql数据_配置binlog_使用处理器抓取binlog数据_实际操作01---大数据之Nifi工作笔记0040
查看>>
NIFI从MySql中增量同步数据_通过Mysql的binlog功能_实时同步mysql数据_配置数据路由_实现数据插入数据到目标数据库_实际操作03---大数据之Nifi工作笔记0042
查看>>
NIFI从MySql中离线读取数据再导入到MySql中_03_来吧用NIFI实现_数据分页获取功能---大数据之Nifi工作笔记0038
查看>>
NIFI从MySql中离线读取数据再导入到MySql中_无分页功能_02_转换数据_分割数据_提取JSON数据_替换拼接SQL_添加分页---大数据之Nifi工作笔记0037
查看>>
NIFI从PostGresql中离线读取数据再导入到MySql中_带有数据分页获取功能_不带分页不能用_NIFI资料太少了---大数据之Nifi工作笔记0039
查看>>
nifi使用过程-常见问题-以及入门总结---大数据之Nifi工作笔记0012
查看>>
NIFI同步MySql数据_到SqlServer_错误_驱动程序无法通过使用安全套接字层(SSL)加密与SQL Server_Navicat连接SqlServer---大数据之Nifi工作笔记0047
查看>>
Nifi同步过程中报错create_time字段找不到_实际目标表和源表中没有这个字段---大数据之Nifi工作笔记0066
查看>>
NIFI大数据进阶_FlowFile拓扑_对FlowFile内容和属性的修改删除添加_介绍和描述_以及实际操作---大数据之Nifi工作笔记0023
查看>>
NIFI大数据进阶_NIFI的模板和组的使用-介绍和实际操作_创建组_嵌套组_模板创建下载_导入---大数据之Nifi工作笔记0022
查看>>
NIFI大数据进阶_NIFI监控的强大功能介绍_处理器面板_进程组面板_summary监控_data_provenance事件源---大数据之Nifi工作笔记0025
查看>>
NIFI大数据进阶_NIFI集群知识点_认识NIFI集群以及集群的组成部分---大数据之Nifi工作笔记0014
查看>>
NIFI大数据进阶_NIFI集群知识点_集群的断开_重连_退役_卸载_总结---大数据之Nifi工作笔记0018
查看>>
NIFI大数据进阶_内嵌ZK模式集群1_搭建过程说明---大数据之Nifi工作笔记0015
查看>>
NIFI大数据进阶_外部ZK模式集群1_实际操作搭建NIFI外部ZK模式集群---大数据之Nifi工作笔记0017
查看>>
NIFI大数据进阶_离线同步MySql数据到HDFS_01_实际操作---大数据之Nifi工作笔记0029
查看>>
NIFI大数据进阶_离线同步MySql数据到HDFS_02_实际操作_splitjson处理器_puthdfs处理器_querydatabasetable处理器---大数据之Nifi工作笔记0030
查看>>