【模板】卡特兰数

ACM模板目录Catalan数证明卡特兰树应用Catalan数证明1.卡特兰数递推式:an={1,n=0∑i=0n−1ai×an−1−i,n>0a_n=\begin{cases} 1,n=0\\\sum_{i=0}^{n-1}a_i×a_{n-1-i},n>0\end{cases}an​={1,n=0∑i=0n−1​ai​×an−1−i​,n>0​2.卡特兰数组合数:an=C2nn−C2nn−1a_n=C_{2n}^n-C_{2n}^{n-1}an​=C2nn​−C2
分类: 其他 发布时间: 01-26 22:18 阅读次数: 0

【模板】KMP算法、fail树

KMP字符串肖然大佬视频讲解子串: 从原串中选取连续的一段,即为子串(包括空串)前缀: pre(s,k)pre(s,k)pre(s,k) 为 s 前 k 个字符构成的子串后缀: suf(s,k)suf(s,k)suf(s,k) 为 s 后 k 个字符构成的子串任何子串都是某个后缀的前缀最长公共前缀 lcp(s,t)lcp(s,t)lcp(s,t) 和最长公共后缀 lcs(s,t)lcs(s,t)lcs(s,t)周期: ①0<p<∣s∣0<p<|s|0<p&lt
分类: 其他 发布时间: 01-26 22:18 阅读次数: 0

F - Sugoroku2(期望dp)

F - Sugoroku2期望dp:fuf_ufu​表示到达终点的期望于是有fu={0,u≥nf0,u∈Afu+1+⋯+fu+mm+1f_u=\begin{cases} 0,u\ge n \\f_0,u\in A\\ \frac{f_{u+1}+\dots+f_{u+m}}{m}+1 \end{cases}fu​=⎩⎪⎨⎪⎧​0,u≥nf0​,u∈Amfu+1​+⋯+fu+m​​+1​由于存在返回f0f_0f0​的操作,最终出来一定是一个关于f0f_0f0​的方程,对于每个点维护f0f_0f0​的系数
分类: 其他 发布时间: 01-26 22:17 阅读次数: 0

E - Rotate and Flip(线性代数矩阵坐标变换)

E - Rotate and Flip顺时针[010−100001][xy1]=[y−x1]\begin{bmatrix} 0 & 1 & 0\\ -1&0&0\\0 &0&1 \end{bmatrix}\begin{bmatrix} x\\y\\1 \end{bmatrix}=\begin{bmatrix} y\\-x\\1 \end{bmatrix}⎣⎡​0−10​100​001​⎦⎤​⎣⎡​xy1​⎦⎤​=⎣⎡​y−x1​⎦⎤​逆时针[0−101
分类: 其他 发布时间: 01-26 22:17 阅读次数: 0

codeforces1469 E. A Bit Similar

E. A Bit Similar代码抄的这份题解找到一个长度为k的串使得在s长度为k的子串中,对于所有子串答案串都至少有一位相同。也就是如果将s长度为k的子串全部按位取反,那么答案串不能与这些反串匹配。现在问题转化成,找到一个答案串(字典序最小),不能和n−k+1n-k+1n−k+1个串匹配。对于二进制位来说,由于n−k+1<220n-k+1<2^{20}n−k+1<220,也就是我们只需要20位就一定能过找到一个和那些串都不同的串,因此可以直接暴力枚举后面20位(k-20位都填0
分类: 其他 发布时间: 01-26 22:16 阅读次数: 0

【模板】最大权闭合图

ACM模板目录概念建图证明模板题概念闭合图中所有的点的出边必须指向内部的点建图原图的边在网络流中的边容量是INF,如果点权是正,那么源点向其连边,容量是点权;否则它向汇点连边,容量是点权绝对值证明考虑最小割 [S,T][S,T][S,T],所求的满足条件的闭合子图为V1V_1V1​S=V1∪{s}S=V_1\cup \{ s \}S=V1​∪{s} ,T=V2∪{t}T=V_2\cup \{t \}T=V2​∪{t},其中V2=V−V1V_2=V-V_1V2​=V−V1​c[S,T]=∑
分类: 其他 发布时间: 01-26 22:16 阅读次数: 0

【模板】最大密度子图

ACM模板目录概念做法例题概念选择一个子图G′=(V′,E′)G'=(V',E')G′=(V′,E′),其中对于任意一条边的两个端点必须在所选的点集中,最大化∣E′∣∣V′∣\frac{|E'|}{|V'|}∣V′∣∣E′∣​做法利用01分数规划二分即最大化∣E′∣−g∣V′∣|E'|-g|V'|∣E′∣−g∣V′∣也就是最小化g∣V′∣−∣E′∣=∑v∈V′g−∑v∈V′1=∑v∈V′g−12(∑v∈V′dv−c[V′,V′ˉ])=12(∑v∈V′(2g−dv)+c[V′,V′ˉ])g|V
分类: 其他 发布时间: 01-26 22:15 阅读次数: 0

泰勒及洛朗展开学习笔记

2020-1024=996最近太忙了,今天好像没有写题,不过研究了一下数学hh。2020.10.24今天又有工数课,我又没听,我记得上节工数课我看了换根dp,哦?好吧我没听过工数,不过这次不敢那么水了,看了看书本,分析了一下书上定理的证明,突然感觉还有点意思,不过老师讲的时候好像没那么深入,由此写下自己的想法,如有错误希望指正谢谢。一.泰勒展开证明首先说明以下证明并不严谨,只是方便自己理解书中的证明过程,如果想要了解研究证明可以考虑看懂下面证明后转向更专业的书籍。设函数f(z)f_(z)f(​z
分类: 其他 发布时间: 01-26 22:15 阅读次数: 0

特征根是复数的二阶微分方程

考虑d2ydx2+a1dydx\frac{d^2y}{dx^2}+a_1\frac{dy}{dx}dx2d2y​+a1​dxdy​众所周知,一般求得二阶常系数线性微分方程的通常由以下步骤根据微分方程
分类: 其他 发布时间: 01-26 22:15 阅读次数: 0

python 近期用到的基础知识汇总(四)

1.python中 return 的用法:return 语句就是讲结果返回到调用的地方,并把程序的控制权一起返回 程序运行到所遇到的第一个return即返回(退出def块),不会再运行第二个return。代码实测搞清楚:def test_return(x): for i in range(3): print(1) if x > 0: ...
分类: 其他 发布时间: 01-26 22:15 阅读次数: 0

pytorch框架快速测试你的模型结构是否存在问题并得到输出形状

ps:这两天很郁闷把模型改了之后,代码一跑起来就把电脑卡死了。我就尝试看看我写的模型有没有错。就在模型后面加了如下代码:#测试模型的代码def FPN(): return Net()def test(): from torch.autograd import Variable net = FPN() fms = net(Variable(torch.ran...
分类: 其他 发布时间: 01-26 22:14 阅读次数: 0

DSB2017第一名代码尝试运行(记录自用)(五)

ps今天居然忘了之前懂的地方,又花时间重新理解了一遍。看来记录还是非常重要的。主要是将代码中构造标签这一块说下细节。之前的博客中说过:制作了一个24*24*24*3*5的标签。一起看你可能理解不了把这拆开看就ok了。首先24*24*24看成一个立方体,这个立方体的每个像素代表这个像素返回输入那个96*96*96中对应4*4*4的中心位置(其实是1.5*1.5*1.5),3代表3个直径尺度,5代...
分类: 其他 发布时间: 01-26 22:14 阅读次数: 0

Deformable ConvNets自己的理解

ps好久没更新博客了,主要之前想把grt团队代码加入fpn,然后多尺度下预测.没成想玩崩了.结果很不正常.调了很多参数都不行(主要改了模型,多尺度标签,多尺度损失函数等等相应问题).后来有点其他事要忙.上周之前刚把降假阳性的3dcnn模型搞定(还要用3dunet降假阳性(联合),没写),趁着训练的时候看下之后可能用到的网络.Deformable ConvNets其实我是先看到了V2,总体明白但...
分类: 其他 发布时间: 01-26 22:14 阅读次数: 0

PytorchRuntimeError: inconsistent tensor sizes at /pytorch/torch/lib/TH/generic/THTensorMath.c:2709

1.pytorch在得到dataset时没有问题,得到DataLoader时也没有问题,以batch size = 512遍历数据时,出现了:RuntimeError: inconsistent tensor sizes at /pytorch/torch/lib/TH/generic/THTensorMath.c:27092.由于这个代码是我改过的版本,我用原版替代试试发现没有问题....
分类: 其他 发布时间: 01-26 22:14 阅读次数: 0

3Dcnn 降假阳性模型调试(一)

3Dcnn模型网上很多,我是在github上找的,根据自己的理解再改了下.具体就不贴了,下面重点讲讲我输入数据的变化.1.一开始直接根据luna16数据中的candidates_V2.csv中标记的''0"为假阳性,"1"为阳性.然后直接从原raw分辨率下截取(20,36,36)放入模型.结果不是很好(只用subset0的数据('1'的多7次采样)为训练数据.再用subset0的数据('1'的...
分类: 其他 发布时间: 01-26 22:13 阅读次数: 0

3Dcnn 降假阳性模型调试(二)

ps:已经快被逼疯了,太慢了(3dcnn).已经超出我的忍受范围了.上篇博客的第二中方法的数据60多个小时只运行了一个epoch的1/5.,(换算1/50的数据跑一个epoch大概需要6个小时)。1.再简化将第二中方法的输入数据改为更加简单的第一种方法而且只取之前数据的1/50,发现还是很慢.12个小时只跑了1.5个epoch(换算一个enpoch需要8小时,比上面还慢).只能静下心来看看是哪...
分类: 其他 发布时间: 01-26 22:13 阅读次数: 0

3Dcnn 降假阳性模型调试(三)

ps看清了上面问题的本质,我尝试来调整批次大小以及多进程数(也就是torch的DataLoader函数的参数)来看看怎么样可以加快运行速度.(同时会看下cup负载和gpu占用率).先根据自己的回忆大致计算周末约60个小时的192个批次的运行速度(192*512)/(60*60*60)fps,得到0.455fps.(这个进程数忘了是16还是32或者是64了)part1 :batch_siz...
分类: 其他 发布时间: 01-26 22:13 阅读次数: 0

3Dcnn 降假阳性模型调试(七)

ps:3Dcnn 降假阳性模型调试的四,五和六我就不公开了.一直都在调试解决cpu数据读入速度慢的问题(现在速度到达了550fps是最慢的时候1000多倍啊!!!,时间差了多少啊!!!).最后还是没有利用所有的数据.但是luna16中的pos全部利用了.neg利用了10%左右(差不多也够了).这里总结一下这段时间的感悟和收获(跟之前可能有部分重复),希望像我一样的新手们能少走弯路:1.最重...
分类: 其他 发布时间: 01-26 22:13 阅读次数: 0

安装Centos7操作系统,创建一个自己名字的用户名,并可以正常登录

![](https://s4.51cto.com/images/blog/202101/26/b91ceb1058ba05e0bcdd74f1950704a4.png?x-oss-process=image/watermark,size_16,text_QDUxQ1RP5Y2a5a6i,color_FFFFFF,t_100,g_se,x_10,y_10,shadow_90,type_ZmFuZ3p
分类: 企业开发 发布时间: 01-26 22:12 阅读次数: 0

配置环境变量,实现执行history的时候可以看到执行命令的时间

![](https://s4.51cto.com/images/blog/202101/26/676b63d9b0d2212c501c02d7dcca2372.png?x-oss-process=image/watermark,size_16,text_QDUxQ1RP5Y2a5a6i,color_FFFFFF,t_100,g_se,x_10,y_10,shadow_90,type_ZmFuZ3p
分类: 企业开发 发布时间: 01-26 22:12 阅读次数: 0