动态规划(DP)——通俗易懂!

转自:阮行止

1. 从一个生活问题谈起

先来看看生活中经常遇到的事吧——假设您是个土豪,身上带了足够的1、5、10、20、50、100元面值的钞票。现在您的目标是凑出某个金额w,需要用到尽量少的钞票。

依据生活经验,我们显然可以采取这样的策略:能用100的就尽量用100的,否则尽量用50的……依次类推。在这种策略下,666=6×100+1×50+1×10+1×5+1×1,共使用了10张钞票。

这种策略称为“贪心”:假设我们面对的局面是“需要凑出w”,贪心策略会尽快让w变得更小。能让w少100就尽量让它少100,这样我们接下来面对的局面就是凑出w-100。长期的生活经验表明,贪心策略是正确的。

但是,如果我们换一组钞票的面值,贪心策略就也许不成立了。如果一个奇葩国家的钞票面额分别是1、5、11,那么我们在凑出15的时候,贪心策略会出错:
  15=1×11+4×1 (贪心策略使用了5张钞票)
  15=3×5 (正确的策略,只用3张钞票)
  为什么会这样呢?贪心策略错在了哪里?

鼠目寸光。
 
  刚刚已经说过,贪心策略的纲领是:“尽量使接下来面对的w更小”。这样,贪心策略在w=15的局面时,会优先使用11来把w降到4;但是在这个问题中,凑出4的代价是很高的,必须使用4×1。如果使用了5,w会降为10,虽然没有4那么小,但是凑出10只需要两张5元。
  在这里我们发现,贪心是一种只考虑眼前情况的策略。

那么,现在我们怎样才能避免鼠目寸光呢?

如果直接暴力枚举凑出w的方案,明显复杂度过高。太多种方法可以凑出w了,枚举它们的时间是不可承受的。我们现在来尝试找一下性质。

重新分析刚刚的例子。w=15时,我们如果取11,接下来就面对w=4的情况;如果取5,则接下来面对w=10的情况。我们发现这些问题都有相同的形式:“给定w,凑出w所用的最少钞票是多少张?”接下来,我们用f(n)来表示“凑出n所需的最少钞票数量”。

那么,如果我们取了11,最后的代价(用掉的钞票总数)是多少呢?

明显 cost = f ( 4 ) + 1 = 4 + 1 = 5 \operatorname{cost}=f(4)+1=4+1=5 ,它的意义是:利用11来凑出15,付出的代价等于f(4)加上自己这一张钞票。现在我们暂时不管f(4)怎么求出来。
  依次类推,马上可以知道:如果我们用5来凑出15,cost就是 f ( 10 ) + 1 = 2 + 1 = 3 f(10)+1=2+1=3

那么,现在w=15的时候,我们该取那种钞票呢?当然是各种方案中,cost值最低的那一个!
  
  - 取11: cost = f ( 4 ) + 1 = 4 + 1 = 5 \operatorname{cost}=f(4)+1=4+1=5
  - 取5: cost = f ( 10 ) + 1 = 2 + 1 = 3 \operatorname{cost}=f(10)+1=2+1=3
  - 取1: cost = f ( 14 ) + 1 = 4 + 1 = 5 \operatorname{cost}=f(14)+1=4+1=5

显而易见,cost值最低的是取5的方案。我们通过上面三个式子,做出了正确的决策!

这给了我们一个至关重要的启示—— f ( n ) f(n) 只与 f ( n 1 ) f(n-1) f ( n 5 ) f(n-5) f ( n 11 ) f(n-11) 相关;更确切地说: f ( n ) = min { f ( n 1 ) , f ( n 5 ) , f ( n 11 ) } + 1 f(n)=\min \{f(n-1), f(n-5), f(n-11)\}+1

这个式子是非常激动人心的。我们要求出f(n),只需要求出几个更小的f值;既然如此,我们从小到大把所有的f(i)求出来不就好了?注意一下边界情况即可。代码如下:

在这里插入图片描述
我们以 O ( n ) O(n) 的复杂度解决了这个问题。现在回过头来,我们看看它的原理:

  • f ( n ) f(n) 只与 f ( n 1 ) f(n-1) f ( n 5 ) f(n-5) f ( n 11 ) f(n-11) 相关。
  • 我们只关心 f ( w ) f(w) 的值,不关心是怎么凑出w的。

这两个事实,保证了我们做法的正确性。它比起贪心策略,会分别算出取1、5、11的代价,从而做出一个正确决策,这样就避免掉了“鼠目寸光”!

它与暴力的区别在哪里?我们的暴力枚举了“使用的硬币”,然而这属于冗余信息。我们要的是答案,根本不关心这个答案是怎么凑出来的。譬如,要求出f(15),只需要知道f(14),f(10),f(4)的值。其他信息并不需要。我们舍弃了冗余信息。我们只记录了对解决问题有帮助的信息——f(n).

我们能这样干,取决于问题的性质:求出f(n),只需要知道几个更小的f©。我们将求解f©称作求解f(n)的“子问题”。

这就是DP(动态规划,dynamic programming).

将一个问题拆成几个子问题,分别求解这些子问题,即可推断出大问题的解。

2. 几个简单的概念

【无后效性】

一旦f(n)确定,“我们如何凑出f(n)”就再也用不着了。

要求出f(15),只需要知道f(14),f(10),f(4)的值,而f(14),f(10),f(4)是如何算出来的,对之后的问题没有影响。

“未来与过去无关”,这就是无后效性。

(严格定义:如果给定某一阶段的状态,则在这一阶段以后过程的发展不受这阶段以前各段状态的影响。)

【最优子结构】

  • 回顾我们对f(n)的定义:我们记“凑出n所需的最少钞票数量”为f(n).

  • f(n)的定义就已经蕴含了“最优”。利用w=14,10,4的最优解,我们即可算出w=15的最优解。

  • 大问题的最优解可以由小问题的最优解推出,这个性质叫做“最优子结构性质”。

  • 引入这两个概念之后,我们如何判断一个问题能否使用DP解决呢?

能将大问题拆成几个小问题,且满足无后效性、最优子结构性质。

3. DP的典型应用:DAG最短路
  问题很简单:给定一个城市的地图,所有的道路都是单行道,而且不会构成环。每条道路都有过路费,问您从S点到T点花费的最少费用。

在这里插入图片描述
 这个问题能用DP解决吗?我们先试着记从S到P的最少费用为f§.
  想要到T,要么经过C,要么经过D。从而 f ( T ) = min { f ( C ) + 20 , f ( D ) + 10 } f(T)=\min \{f(C)+20, f(D)+10\}

好像看起来可以DP。现在我们检验刚刚那两个性质:
  - 无后效性:对于点P,一旦f§确定,以后就只关心f§的值,不关心怎么去的。
  - 最优子结构:对于P,我们当然只关心到P的最小费用,即f§。如果我们从S走到T是 S P Q T S \rightarrow P \rightarrow Q \rightarrow T 那肯定S走到Q的最优路径是 S P Q S \rightarrow P \rightarrow Q 。对一条最优的路径而言,从S走到沿途上所有的点(子问题)的最优路径,都是这条大路的一部分。这个问题的最优子结构性质是显然的。

既然这两个性质都满足,那么本题可以DP。式子明显为:
f ( P ) = min { f ( R ) + w R P } f(P)=\min \left\{f(R)+w_{R \rightarrow P}\right\}

其中R为有路通到P的所有的点, w R P w_{R \rightarrow P} 为R到P的过路费。

代码实现也很简单,拓扑排序即可。

4. 对DP原理的一点讨论

【DP的核心思想】

DP为什么会快?
  无论是DP还是暴力,我们的算法都是在可能解空间内,寻找最优解。

来看钞票问题。暴力做法是枚举所有的可能解,这是最大的可能解空间。
  DP是枚举有希望成为答案的解。这个空间比暴力的小得多。

也就是说:DP自带剪枝。

DP舍弃了一大堆不可能成为最优解的答案。譬如:
  15 = 5+5+5 被考虑了。
  15 = 5+5+1+1+1+1+1 从来没有考虑过,因为这不可能成为最优解。

从而我们可以得到DP的核心思想:尽量缩小可能解空间。

在暴力算法中,可能解空间往往是指数级的大小;如果我们采用DP,那么有可能把解空间的大小降到多项式级。

一般来说,解空间越小,寻找解就越快。这样就完成了优化。

【DP的操作过程】

一言以蔽之:大事化小,小事化了。

将一个大问题转化成几个小问题;
  求解小问题;
  推出大问题的解。

【如何设计DP算法】

下面介绍比较通用的设计DP算法的步骤。

首先,把我们面对的局面表示为x。这一步称为设计状态。
  对于状态x,记我们要求出的答案(e.g. 最小费用)为f(x).我们的目标是求出f(T).
找出f(x)与哪些局面有关(记为p),写出一个式子(称为状态转移方程),通过f§来推出f(x).

【DP三连】

设计DP算法,往往可以遵循DP三连:

我是谁? ——设计状态,表示局面
  我从哪里来?
  我要到哪里去? ——设计转移

设计状态是DP的基础。接下来的设计转移,有两种方式:一种是考虑我从哪里来(本文之前提到的两个例子,都是在考虑“我从哪里来”);另一种是考虑我到哪里去,这常见于求出f(x)之后,更新能从x走到的一些解。这种DP也是不少的,我们以后会遇到。

总而言之,“我从哪里来”和“我要到哪里去”只需要考虑清楚其中一个,就能设计出状态转移方程,从而写代码求解问题。前者又称pull型的转移,后者又称push型的转移。

5. 例题:最长上升子序列

扯了这么多形而上的内容,还是做一道例题吧。

最长上升子序列(LIS)问题:给定长度为n的序列a,从a中抽取出一个子序列,这个子序列需要单调递增。问最长的上升子序列(LIS)的长度。
  e.g. 1,5,3,4,6,9,7,8的LIS为1,3,4,6,7,8,长度为6。

如何设计状态(我是谁)?

我们记 f ( x ) f(x) 为以 a x a_{x} 结尾的LIS长度,那么答案就是 max { f ( x ) } \max \{f(x)\} .
 
 状态x从哪里推过来(我从哪里来)?

考虑比x小的每一个p:如果 a x a_{x} > a p a_{p} ,那么f(x)可以取f§+1.
  解释:我们把 a x a_{x} 接在 a p a_{p} 的后面,肯定能构造一个以 a x a_{x} 结尾的上升子序列,长度比以 a p a_{p} 结尾的LIS大1.那么,我们可以写出状态转移方程了:
   f ( x ) = max p < x , a p < a x { f ( p ) } + 1 f(x)=\max _{p<x, a_{p}<a_{x}}\{f(p)\}+1

至此解决问题。两层for循环,复杂度 O ( n 2 ) O\left(n^{2}\right) .
在这里插入图片描述从这三个例题中可以看出,DP是一种思想,一种“大事化小,小事化了”的思想。带着这种思想,DP将会成为我们解决问题的利器。

最后,我们一起念一遍DP三连吧——我是谁?我从哪里来?我要到哪里去?

6. 习题

一、动态规划初步·各种子序列问题

一、 DPDP 的意义以及线性动规简介

动态规划自古以来是 DALAODALAO 凌虐萌新的分水岭,但有些OIer认为并没有这么重要——会打暴力,大不了记忆化。但是其实,动态规划学得好不好,可以彰显出一个 OIerOIer 的基本素养——能否富有逻辑地思考一些问题,以及更重要的——能否将数学、算筹学(决策学)、数据结构合并成一个整体并且将其合理运用 qwqqwq 。

而我们首先要了解的,便是综合难度在所有动规题里最为简单的线性动规了。线性动规既是一切动规的基础,同时也可以广泛解决生活中的各项问题——比如在我们所在的三维世界里,四维的时间就是不可逆式线性,比如我们需要决策在相同的时间内做价值尽量大的事情,该如何决策,最优解是什么——这就引出了动态规划的真正含义:

在一个困难的嵌套决策链中,决策出最优解。

二、动态规划性质浅谈

首先,动态规划和递推有些相似(尤其是线性动规),但是不同于递推的是:

递推求出的是数据,所以只是针对数据进行操作;而动态规划求出的是最优状态,所以必然也是针对状态的操作,而状态自然可以出现在最优解中,也可以不出现——这便是决策的特性(布尔性)。

其次,由于每个状态均可以由之前的状态演变形成,所以动态规划有可推导性,但同时,动态规划也有无后效性,即每个当前状态会且仅会决策出下一状态,而不直接对未来的所有状态负责,可以浅显的理解为——
Future never has to do with past time ,but present does.
现在决定未来,未来与过去无关。

三、扯正题——子序列问题

(一)一个序列中的最长上升子序列( LISLIS )

例:由6个数,分别是: 1 7 6 2 3 4,求最长上升子序列。

评析:首先,我们要理解什么叫做最长上升子序列:1、最长上升子序列的元素不一定相邻 2、最长上升子序列一定是原序列的子集。所以这个例子中的 LISLIS 就是:1 2 3 4,共4个

1、 n 2 n^{2} 做法
首先我们要知道,对于每一个元素来说,最长上升子序列就是其本身。那我们便可以维护一个 dpdp 数组,使得 dp[i] 表示以第 i 元素为结尾的最长上升子序列长度,那么对于每一个 dp[i] 而言,初始值即为 1 ;

那么dp数组怎么求呢?我们可以对于每一个 i ,枚举在 i 之前的每一个元素 j ,然后对于每一个 dp[j] ,如果元素 i大于元素 j ,那么就可以考虑继承,而最优解的得出则是依靠对于每一个继承而来的 dp 值,取 max .

 for(int i=1;i<=n;i++)
    {
        dp[i]=1;//初始化 
        for(int j=1;j<i;j++)//枚举i之前的每一个j 
        if(data[j]<data[i] && dp[i]<dp[j]+1)
        //用if判断是否可以拼凑成上升子序列,
        //并且判断当前状态是否优于之前枚举
        //过的所有状态,如果是,则↓ 
        dp[i]=dp[j]+1;//更新最优状态 

    }

最后,因为我们对于 dpdp 数组的定义是到i为止的最长上升子序列长度,所以我们最后对于整个序列,只需要输出 dp[n]dp[n] ( nn 为元素个数)即可。

从这个题我们也不难看出,状态转移方程可以如此定义:

下一状态最优值=最优比较函数(已经记录的最优值,可以由先前状态得出的最优值)
——即动态规划具有 判断性继承思想

2、 nlognnlogn 做法
我们其实不难看出,对于 n 2 n^{2} 做法而言,其实就是暴力枚举:将每个状态都分别比较一遍。但其实有些没有必要的状态的枚举,导致浪费许多时间,当元素个数到了 1 0 4 10^{4} 1 0 5 10^{5} 以上时,就已经超时了。而此时,我们可以通过另一种动态规划的方式来降低时间复杂度:

将原来的dp数组的存储由数值换成该序列中,上升子序列长度为i的上升子序列,的最小末尾数值

这其实就是一种几近贪心的思想:我们当前的上升子序列长度如果已经确定,那么如果这种长度的子序列的结尾元素越小,后面的元素就可以更方便地加入到这条我们臆测的、可作为结果、的上升子序列中。

qwq一定要好好看注释啊!

int n;
    cin>>n;
    for(int i=1;i<=n;i++)
    {
        cin>>a[i];
        f[i]=0x7fffffff;
        //初始值要设为INF
        /*原因很简单,每遇到一个新的元素时,就跟已经记录的f数组当前所记录的最长
        上升子序列的末尾元素相比较:如果小于此元素,那么就不断向前找,直到找到
        一个刚好比它大的元素,替换;反之如果大于,么填到末尾元素的下一个q,INF
                就是为了方便向后替换啊!*/ 
    }
    f[1]=a[1];
    int len=1;//通过记录f数组的有效位数,求得个数 
    /*因为上文中所提到我们有可能要不断向前寻找,
    所以可以采用二分查找的策略,这便是将时间复杂
    度降成nlogn级别的关键因素。*/ 
    for(int i=2;i<=n;i++)
    {
        int l=0,r=len,mid;
        if(a[i]>f[len])f[++len]=a[i];
        //如果刚好大于末尾,暂时向后顺次填充 
        else 
        {
        while(l<r)
        {   
            mid=(l+r)/2;
            if(f[mid]>a[i])r=mid;
    //如果仍然小于之前所记录的最小末尾,那么不断
    //向前寻找(因为是最长上升子序列,所以f数组必
    //然满足单调) 
            else l=mid+1; 
        }
        f[l]=min(a[i],f[l]);//更新最小末尾 
        }
    }
    cout<<len;

但是事实上, nlognnlogn 做法偷了个懒,没有记录以每一个元素结尾的最长上升子序列长度。那么我们对于 n 2 n^{2} 的统计方案数,有很好想的如下代码(再对第一次的 dpdp 数组 dpdp 一次):

for(i = 1; i <= N; i ++){
    if(dp[i] == 1) f[i] = 1 ;
    for(j = 1; j <= N: j ++)
        if(base[i] > base[j] && dp[j] == dp[i] - 1) f[i] += f[j] ;
        else if(base[i] == base[j] && dp[j] == dp[i]) f[i] = 0 ;
    if(f[i] == ans) res ++ ;
    }

但是 nlognnlogn 呢?虽然好像也可以做,但是想的话会比较麻烦,在这里就暂时不讨论了 qwqqwq ,但笔者说这件事的目的是为了再次论证一个观点:时间复杂度越高的算法越全能

3 、输出路径
只要记录前驱,然后递归输出即可(也可以用栈的)

下面贴出 n 2 n^{2} 的完整代码qwq

#include <iostream>
using namespace std;
const int MAXN = 1000 + 10;
int n, data[MAXN];
int dp[MAXN]; 
int from[MAXN]; 
void output(int x)
{
    if(!x)return;
    output(from[x]);
    cout<<data[x]<<" ";
    //迭代输出 
}
int main()
{
    cin>>n;
    for(int i=1;i<=n;i++)cin>>data[i];

    // DP
    for(int i=1;i<=n;i++)
    {
        dp[i]=1;
        from[i]=0;
        for(int j=1;j<i;j++)
        if(data[j]<data[i] && dp[i]<dp[j]+1)
        {
            dp[i]=dp[j]+1;
            from[i]=j;//逐个记录前驱 
        }
    }

    int ans=dp[1], pos=1;
    for(int i=1;i<=n;i++)
        if(ans<dp[i])
        {
            ans=dp[i];
            pos=i;//由于需要递归输出
    //所以要记录最长上升子序列的最后一
    //个元素,来不断回溯出路径来 
        }
    cout<<ans<<endl;
    output(pos);

    return 0;
}

(二)两个序列中的最长公共子序列( LCS )

1、譬如给定2个序列:

1 2 3 4 5

3 2 1 4 5
试求出最长的公共子序列。

qwq 显然长度是 3 ,包含
3 4 5 三个元素(不唯一)

解析:我们可以用 dp[i][j]来表示第一个串的前 i 位,第二个串的前j位的 LCS 的长度,那么我们是很容易想到状态转移方程的:

如果当前的 A1[i] 和 A2[j] 相同(即是有新的公共元素) 那么

dp[ i ] [ j ] = max(dp[ i ] [ j ], dp[ i-1 ] [ j-1 ] + 1);
如果不相同,即无法更新公共元素,考虑继承:

dp[i][j]=max(dp[i−1][j],dp[i][j−1])
那么代码:

#include<iostream>
using namespace std;
int dp[1001][1001],a1[2001],a2[2001],n,m;
int main()
{
    //dp[i][j]表示两个串从头开始,直到第一个串的第i位 
    //和第二个串的第j位最多有多少个公共子元素 
    cin>>n>>m;
    for(int i=1;i<=n;i++)scanf("%d",&a1[i]);
    for(int i=1;i<=m;i++)scanf("%d",&a2[i]);
    for(int i=1;i<=n;i++)
     for(int j=1;j<=m;j++)
      {
        dp[i][j]=max(dp[i-1][j],dp[i][j-1]);
        if(a1[i]==a2[j])
        dp[i][j]=max(dp[i][j],dp[i-1][j-1]+1);
        //因为更新,所以++; 
      }
    cout<<dp[n][m];
}

2 、而对于洛谷 P1439
而言,不仅是卡上面的朴素算法,也考察到了全排列的性质:

对于这个题而言,朴素算法是 n 2 n^{2} 的,会被 1 0 5 10^{5} 卡死,所以我们可以考虑 nlogn 的做法:

因为两个序列都是 1~n的全排列,那么两个序列元素互异且相同,也就是说只是位置不同罢了,那么我们通过一个 map 数组将 A 序列的数字在 B 序列中的位置表示出来——

因为最长公共子序列是按位向后比对的,所以a序列每个元素在b序列中的位置如果递增,就说明b中的这个数在a中的这个数整体位置偏后,可以考虑纳入 LCS ——那么就可以转变成 nlogn 求用来记录新的位置的map数组中的 LIS 。

最后贴 AC 代码:

#include<iostream>
#include<cstdio>
using namespace std;
int a[100001],b[100001],map[100001],f[100001];
int main()
{
    int n;
    cin>>n;
    for(int i=1;i<=n;i++){scanf("%d",&a[i]);map[a[i]]=i;}
    for(int i=1;i<=n;i++){scanf("%d",&b[i]);f[i]=0x7fffffff;}
    int len=0;
    f[0]=0;
    for(int i=1;i<=n;i++)
    {
        int l=0,r=len,mid;
        if(map[b[i]]>f[len])f[++len]=map[b[i]];
        else 
        {
        while(l<r)
        {   
            mid=(l+r)/2;
            if(f[mid]>map[b[i]])r=mid;
            else l=mid+1; 
        }
        f[l]=min(map[b[i]],f[l]);
        }
    }
    cout<<len;
    return 0
}

猜你喜欢

转载自blog.csdn.net/weixin_44023658/article/details/105958619