The logback manual #03# Configuration
(粗糙选译。。) Joran是logback所依赖的配置框架。 Configuration in logback 观察表明,在一个应用程序中,日志代码大概占4%左右。 所以即便是一个几千行。。几万行的程序也有成百上千的日志语句,鉴于它们的数量,我们需要工具来管理这些日志语句。logback既可以通过编程方式配置,也可以通过脚本配置(XML或Groovy 格式)。顺便说一下,现有的log4j用户可以使用PropertiesTranslator 应用程序将log4j.properties转换为lo
数据可视化之"Surveying the complementary role of automatic data analysis and visualization in knowledge discovery"
Surveying the complementary role of automatic data analysis and visualization in knowledge discovery Enrico Bertini; Denis Lalanne; VAKD '09 Proceedings of the ACM SIGKDD Workshop on Visual Analytics and Knowledge Discovery: Integrating Automated An
vuex 的理解 vuex
vuex vuex状态管理工具 1.什么是Vuex: Vuex是一个专为Vue.js应用程序开发的状态管理模式。 2.使用Vuex的原因: 当我们遇到多个组件共享状态时,多层组件的传值非常繁琐,不利于维护,因此我们把组件的共享状态抽取出来,以一个单例模式管理,在这种模式下,不管在哪个组件都可以获取状态或触发行为 3.什么情况下使用: <1>虽然Vuex可以帮助我们管理共享状态,但是也附带了更多的概念和框架,增加了学习成本,所以决定是否要使用Vuex要对短期和长期效益进行权衡。 <2>如果应用够
go thrift 开发
thrift 从 0.9.1版本开始,可以完美支持 go 语言,可以完美的实现跨语言的 rpc 调用了。下面以 go 和 java 语言相互调用为例。 编辑协议文件,go 语言示例 /** example.thrift */
namespace go example
service transdata {
bool sendMsg(1: string msgJson),
} 下载thrift,用于生成协议库文件 下载地址 http://www.apache.org/dyn/close
BZOJ2957: 楼房重建(线段树&LIS)
2957: 楼房重建 Time Limit: 10 Sec Memory Limit: 256 MB Submit: 3727 Solved: 1793 [Submit][Status][Discuss] Description 小A的楼房外有一大片施工工地,工地上有N栋待建的楼房。每天,这片工地上的房子拆了又建、建了又拆。他经常无聊地看着窗外发呆,数自己能够看到多少栋房子。 为了简化问题,我们考虑这些事件发生在一个二维平面上。小A在平面上(0,0)点的位置,第i栋楼房可以用一条连接(
从美团这篇文章聊聊微前端的聚合问题
最近我打算在我的面试题库里加一道题,用于考验候选人的应用的设计能力,这个问题也来源于最近经历的真实的业务问题: 我目前所在的技术中台部门为公司的业务部门开发了非常多的工具应用,比如数据分析、比如A/B测试、比如部署发布平台等等。它们都是基于 React 框架
从网站上读取数据失败
有个自用的工具,从网站上读取数据。 后来发现读取的数据不完全。 调试程序,发现都正常。粗略看了看源程序,也都是对的。又插入许多语句把中间变量写到文件中。发现也没什么大问题。折腾了很久,无果,就先不管了。 大半年过去了,断断续续地偶尔看看程序,也没找到哪里出错了。 前两天,又着手看看这个程序。添加了一堆调试代码,把一些中间变量写出到文件。弄了2天,仍旧没发现问题在哪。但是检查了一个中间变量有时该有数据却不含数据,于是忽地想到了没有为它提供数据,也就是读取下来的网页中不含有效数据,而且根据以前de
安装Unbuntu 18.04 server后连wifi
昨天装了Unbuntu 18.04.1 server,从http://cdimage.ubuntu.com/releases/18.04.1/release/ 下的adm64位的。 安装后连不上wifi,折腾了大半天,终于能用wifi了。 一些事项备忘: 1. 16.04版及以前的Ubuntu DNS在 /etc/resolvconf/resolv.conf.d/base 文件中设置,然后再执行resolvconf -u。 2. 18.04版ubuntu用netplan管理network, 在
Docker-通过docker-maven-plugin插件实现docker镜像构建并自动发布到远程docker服务器
我们知道,docker能实现应用打包隔离,实现快速部署和迁移。如果我们开发应用使用了spring cloud + spring boot架构,那么,通过docker-maven-plugin实现快速构建镜像并发布到远程docker服务器会非常方便。相关步骤参考如下: step1、开启docker服务器的tcp管理端口,这里以2375为例进行说明。具体的配置过程请参考另一篇博客: https://www.cnblogs.com/funnyboy0128/p/9983779.html step2、
勒索病毒防范方案-有韩立刚老师总结的非常规手段
勒索病毒防范方案1.勒索病毒是如何传播的这是不法分子通过改造之前泄露的NSA***武器库中“永恒之蓝”***程序发起的网络***事件。“永恒之蓝”通过扫描开放445文件共享端口的Windows电脑甚至是电子信息屏,无需用户进行任何操作,只要开机联网,不法分子就能在电脑和服务器中植入勒索软件、远程控制***、虚拟货币挖矿机等一系列恶意程序。利用445文件共享端口实施破坏的蠕虫病毒,曾多次在国内爆发。因此,运
相似度计算之Jaccard系数
Jaccard相似系数 定义 给定两个集合A,B,Jaccard 系数定义为A与B交集的大小与A与B并集的大小的比值,定义如下: 当集合A,B都为空时,J(A,B)定义为1。 与Jaccard 系数相关的指标叫做Jaccard 距离,用于描述集合之间的不相似度。Jaccard 距离越大,样本相似度越低。公式定义如下: 其中对参差(symmetric difference) 性质 实例 主要用于计算符号度量或布尔值度量的个体间的相似度,因为个体的特征属性都是由符号度量或者布尔值标识,因此无法衡量
云模型(Cloud Model)
一、基本概念 云模型是由中国工程院院士李德毅在1995年提出的概念,是处理定性概念与定量描述的不确定转换模型。已经成功应用到自然语言处理处理,数据挖掘,决策分析,智能控制,图像处理等领域。 看一下百度的定义: 嗯,乱七八糟,我也看不懂。不过没关系,了解大概的概念就好。整个模型叫云,每个小的数据,也就是每个发生在系统中的事件,叫做云滴。 看他的数字特征。 期望Ex:云滴在论域空间分布的期望,就是你理解的期望 熵En:代表云滴分布的不确定性和模糊性,就是你高中物理化学学的那个熵 超熵He:熵的熵。
文本数据下的用户画像
一、概述 1、用户标签的获取:喜好关键词表:一个key-value 键值对。 用户喜好的关键词-喜好程度”这样的Key-Value对。而这个map最开始当然是空的,而从任意时刻开始,我们可以开始跟踪某用户的浏览行为,每当该用户新浏览了一条新闻,我们就把该新闻的“关键词-TFIDF值”“插入”到该用户的喜好关键词表中。当然这个“插入”要考虑关键词表里已经预先有了某预插入的关键词的情况,那么在这个基础上,我们可以将预插入的关键词的TFIDF值直接和词表里的值加起来。 当然,考虑到存储问题,我们可以
文本内容画像&用户画像理解之最终版
首先,用户画像和内容画像 等于 给用户和文本贴标签,即提取能代表该用户和该文章的关键特征。两个画像都构建完成之后,便是推荐算法出场。 一、标签的定义 标签是对高维事务的降维理解,抽象出实物更具有代表性、更显著的特点。 二、标签产出方式: 内容和用户两种 在内容画像层面,在文本处理中,对于给定的非结构化的一篇文章,内容画像一共分为一下两步: 2.1、对非结构的文本进行结构化处理,常用的有如下六种处理方法: 1. 关键词提取:是最基础的物品画像的标签来源,也为其他文本分析提供数据基础,如TF-ID
python数据类型之 集合
1.集合的定义 格式:集合名 = {元素1,元素2,...} 例:my_set = {1, 3, 5} 集合是无序的-> 不支持下标索引 集合是可变的数据类型 集合中的元素是唯一的 集合一般用于元组或者列表中的元素去重 定义一个空的集合 my_set = set() 注意: my_set = {} 这样的写法为一个空字典 2.集合的常见操作符 交集 & 并集 | 差集 - 对称差集 ^ item在前一个集合或后一个集合中,但不会同时出现在二者中
如何生成自定义的逆向文件频率(IDF)文本语料库(一)
在基于TF-IDF进行特征提取时,因为文本背景是某一具体行业,不适合使用通用的IDF语料库,我觉得应该使用自定义的基于该行业背景的IDF语料库。请问如何生成自定义IDF语料库呢? 我现在有的数据是几十万个该行业的文档,初步想法是:对每个文档分词去重,把所有文档分词结果汇集去重后形成一个分词集,然后对于分词集里的每一个词语w,按idf=log(该行业文档总数/(含有w的文档数量+1))**公式求出词语w的IDF值f,最后txt文件里每一行放一个(w, f)。 一、逆向文件频率 逆向文件频率 (i
今日推荐
周排行