angular项目国际化配置(ngx-translate)
原文 https://www.jianshu.com/p/7d1da3098625 大纲 1、认识ngx-translate 2、ngx-translate的配置步骤 3、ngx-translate的使用方式 4、ngx-translate的使用注意方式 认识ngx-translate ngx-translate的官网解释是:The internationalization (i18n) library for Angular,即ngx-translate是一个用于angu
2018.6.22 Java试题测试结果
如何从有数字规律的网址抓取网页并保存在当前目录?假设网址为 http://test/0.xml,其中这个数字可以递增到100。 for((i=0;i<100;++i));do wget http://test/$i.xml; done 关于计算机网络,以下说法正确的是 1 2 5 (1)在向下的过程中,需要添加下层协议所需要的首部或者尾部
(2)在向上的过程中不断拆开首部和尾部
(3)在向上的过程中,需要添加下层协议所需要的首部或者尾部
(4)在向下的过程中不断拆开首部和尾部
(5)SMTP
1linux的基本命令
查看命令的帮助信息 man 命令名 文件操作 touch 建立文件 (对于已存在文件,更新时间) cat 查看文件 (-n 自动加上行号) rm 删除文件 cp 拷贝文件 mv 移动/重命名文件 more 分页查看文件 [只支持后翻 --空格] less 分页查看文件[支持前翻后翻查找 – pageup/pagedown] head 查看文件头几行 tail 查看文件末尾几行 (-f 动态查看文件修改情况) ln 创建链接文件 [ -s 软连接/硬连接] 软链接: 相当于windows下的快捷
Confluence 6 从其他备份中恢复数据
一般来说,Confluence 数据库可以从 Administration Console 或者 Confluence Setup Wizard 中进行恢复。 如果你在恢复压缩的 XML 备份的时候遇到了问题,你还是可以对整个站点进行恢复的,如果你能提供下面 2 个备份的话: 一个有关 home 目录的所有备份。 一个有关你数据库的备份(如果你使用的是外部数据库的话)。 有关恢复备份的方法基于你使用的是内部数据库还是外部数据库会有些不同。外部数据库主要像 Oracle, MS SQL Serv
CPU-如何开始在新的CPU上编程
https://mp.weixin.qq.com/s/rNXDPR53m--XuvJLE1CDvA 新在哪里?从未接触过。比如之前一直在x86、ARM上写程序,C比较多,汇编也调过。MIPS可能零零星星也看过几篇资料。然后来了个用PowerPC的项目,或者RISC-V的项目,茫茫然无可奈何不知所措。 这里介绍CPU相关的概念,需要哪些资料,可以没有概念上的缺口,踏踏实实的开始为一个于己而言全新的CPU编写代码。 一. CPU CPU即中央处理器,执行一系列指令,完成处理任务。CPU即是指令执行
自己实现数据结构---LinkedList
一.先上代码: 1.方式一: public class LinkedList<E> {
//节点,用来存放数据:数据+下一个元素的引用
private class Node{
private E e;
private Node next;
public Node(E e,Node next){
this.e = e;
this.next = next;
}
SparkSQL UDF&&函数
1.SparkSQL自带的Functions在idea中,双击shift,搜索functions,里面有很多自定义函数package RDD_DATAFRAME_DATASET
import org.apache.spark.sql.SparkSession
/**
* SparkSQL函数如何使用
"2018-01-01,50,1111",
"2018-01-01,60,...
SparkSQL 之开发环境造数据
import java.io.BufferedWriter;
import java.io.FileOutputStream;
import java.io.IOException;
import java.io.OutputStreamWriter;
import java.text.SimpleDateFormat;
import java.util.Date;
import java.uti...
Spark DataFrame vs Dataset
DataFrame vs DatasetDataFrame = Dataset[Row]SchemaRDD ----------&gt;DataFrame ----------&gt;Dataset rename due to compile-time type safety OO structure cha...
SparkSQL Catalog
http://spark.apache.org/docs/latest/sql-programming-guide.html#
Catalog interface for Spark. To access this, use `SparkSession.catalog`.Spark的目录界面。 要访问这个,使用`SparkSession.catalog`。val catalog = spark.c...
SparkSQL 开发中遇到的参数坑-1
SQLConf 默认情况下ORC文件格式的文件,过滤条件默认不适用谓词下压导致性能极差。但是他默认是压缩的,10000条verifyPartitionPath也是false的
Spark 结构化流
https://databricks.com/blog/2016/07/28/continuous-applications-evolving-streaming-in-apache-spark-2-0.htmlMost streaming engines focus on performing computations on a stream: for example, one can map ...
sparkstreaming + kafka如何保证数据不丢失、不重复
spark-streaming作为一个24*7不间断运行的程序来设计,但是程序都会crash,如果crash了,如何保证数据不丢失,不重复。Input DStreams and Receiversspark streaming提供了两种streaming input source:basic source: Source directly avaliable in the StreamingCon...
Spark Streaming中WAL内幕实现彻底解密
Spark Streaming中WAL内幕实现彻底解密1 WAL 框架和实现2 spark streaming中WAL的使用WAL 是一个存储系统,相当于Blockmanager,可以简单的认为,WAL就是一个文件系统。WAL 在存储系统上面加了一层,加了一个时间维度和索引的位置。 ...
Kafka -01概述对比,环境部署搭建
server.properties############################# Server Basics ############################## The id of the broker. This must be set to a unique integer for each broker.broker.id=0######################...
Spark-streaming kafka数据接收两种方式对比
1.1 Receiver-based Approach这种方式利用接收器(Receiver)来接收kafka中的数据,其最基本是使用Kafka高阶用户API接口。对于所有的接收器,从kafka接收来的数据会存储在spark的executor中,之后spark streaming提交的job会处理这些数据。Receiver-based的Kafka读取方式是基于Kafka高阶(high-level) ...
周排行