13.1. 初探动态规划¶
「动态规划 Dynamic Programming」是一种通过将复杂问题分解为更简单的子问题方式来求解问题的方法,通常用来求解最优方案的相关问题,例如寻找最短路径、最大利润、最少时间等。
然而,并非所有的最优化问题都适合用动态规划来解决。只有当问题具有重叠子问题、最优子结构、无后效性时,动态规划才能发挥出其优势。
在本节,我们先从几个经典例题入手,总览动态规划的主要特征,包括:
- 如何使用回溯来暴力求解动态规划问题,其中为什么包含重叠子问题。
- 动态规划是如何通过引入“记忆化”来优化时间复杂度的,并给出从顶至底和从底至顶两种解法。
- 动态规划的常用术语,状态压缩的实现方式。
- 最优子结构在动态规划问题中的表现形式,动态规划与分治的区别是什么。
- 无后效性的含义,其对动态规划的意义是什么。
13.1.1. 重叠子问题¶
爬楼梯
给定一个共有 \(n\) 阶的楼梯,你每步可以上 \(1\) 阶或者 \(2\) 阶,请问有多少种方案可以爬到楼顶。
如下图所示,对于一个 \(3\) 阶楼梯,共有 \(3\) 种方案可以爬到楼顶。
Fig. 爬到第 3 阶的方案数量
不考虑效率的前提下,动态规划问题理论上都可以使用回溯算法解决,因为回溯算法本质上就是穷举,它能够遍历决策树的所有可能的状态,并从中记录需要的解。
对于本题,我们可以将爬楼梯想象为一个多轮选择的过程:从地面出发,每轮选择上 \(1\) 阶或 \(2\) 阶,每当到达楼梯顶部时就将方案数量加 \(1\) 。
/* 回溯 */
void backtrack(List<Integer> choices, int state, int n, List<Integer> res) {
// 当爬到第 n 阶时,方案数量加 1
if (state == n)
res.set(0, res.get(0) + 1);
// 遍历所有选择
for (Integer choice : choices) {
// 剪枝:不允许越过第 n 阶
if (state + choice > n)
break;
// 尝试:做出选择,更新状态
backtrack(choices, state + choice, n, res);
// 回退
}
}
/* 爬楼梯:回溯 */
int climbingStairsBacktrack(int n) {
List<Integer> choices = Arrays.asList(1, 2); // 可选择向上爬 1 或 2 阶
int state = 0; // 从第 0 阶开始爬
List<Integer> res = new ArrayList<>();
res.add(0); // 使用 res[0] 记录方案数量
backtrack(choices, state, n, res);
return res.get(0);
}
/* 回溯 */
void backtrack(vector<int> &choices, int state, int n, vector<int> &res) {
// 当爬到第 n 阶时,方案数量加 1
if (state == n)
res[0]++;
// 遍历所有选择
for (auto &choice : choices) {
// 剪枝:不允许越过第 n 阶
if (state + choice > n)
break;
// 尝试:做出选择,更新状态
backtrack(choices, state + choice, n, res);
// 回退
}
}
/* 爬楼梯:回溯 */
int climbingStairsBacktrack(int n) {
vector<int> choices = {1, 2}; // 可选择向上爬 1 或 2 阶
int state = 0; // 从第 0 阶开始爬
vector<int> res = {0}; // 使用 res[0] 记录方案数量
backtrack(choices, state, n, res);
return res[0];
}
def backtrack(choices: list[int], state: int, n: int, res: list[int]) -> int:
"""回溯"""
# 当爬到第 n 阶时,方案数量加 1
if state == n:
res[0] += 1
# 遍历所有选择
for choice in choices:
# 剪枝:不允许越过第 n 阶
if state + choice > n:
break
# 尝试:做出选择,更新状态
backtrack(choices, state + choice, n, res)
# 回退
def climbing_stairs_backtrack(n: int) -> int:
"""爬楼梯:回溯"""
choices = [1, 2] # 可选择向上爬 1 或 2 阶
state = 0 # 从第 0 阶开始爬
res = [0] # 使用 res[0] 记录方案数量
backtrack(choices, state, n, res)
return res[0]
方法一:暴力搜索¶
然而,这道题并不是典型的回溯问题,而更适合从分治的角度进行解析:在分治算法中,原问题被分解为较小的子问题,通过组合子问题的解得到原问题的解。例如,归并排序将一个长数组从顶至底地划分为两个短数组,再从底至顶地将已排序的短数组进行排序。
对于本题,设爬到第 \(i\) 阶共有 \(dp[i]\) 种方案,那么 \(dp[i]\) 就是原问题,其子问题包括 \(dp[i-1]\) , \(dp[i-2]\) , \(\cdots\) , \(dp[2]\) , \(dp[1]\) 。
由于每轮只能上 \(1\) 阶或 \(2\) 阶,因此当我们站在第 \(i\) 阶楼梯上时,上一轮只可能站在第 \(i - 1\) 阶或第 \(i - 2\) 阶上,换句话说,我们只能从第 \(i -1\) 阶或第 \(i - 2\) 阶前往第 \(i\) 阶。因此,爬到第 \(i - 1\) 阶的方案数加上爬到第 \(i - 2\) 阶的方案数就等于爬到第 \(i\) 阶的方案数,即:
Fig. 方案数量递推公式
基于此递推公式,我们可以写出递归代码:以 \(dp[n]\) 为起始点,从顶至底地将一个较大问题拆解为两个较小问题,直至到达最小子问题 \(dp[1]\) 和 \(dp[2]\) 时返回。其中,最小子问题的解是已知的,即爬到第 \(1\) , \(2\) 阶分别有 \(1\) , \(2\) 种方案。
虽然以下代码也属于深度优先搜索,但比标准回溯算法代码简洁很多,这体现了从分治角度考虑这道题的优势。
下图展示了该方法形成的递归树。对于问题 \(dp[n]\) ,递归树的深度为 \(n\) ,时间复杂度为 \(O(2^n)\) 。指数阶的运行时间增长地非常快,如果我们输入一个比较大的 \(n\) ,则会陷入漫长的等待之中。
Fig. 爬楼梯对应递归树
实际上,指数阶的时间复杂度是由于「重叠子问题」导致的。例如,问题 \(dp[9]\) 被分解为子问题 \(dp[8]\) 和 \(dp[7]\) ,问题 \(dp[8]\) 被分解为子问题 \(dp[7]\) 和 \(dp[6]\) ,两者都包含子问题 \(dp[7]\) ,而子问题中又包含更小的重叠子问题,子子孙孙无穷尽也,绝大部分计算资源都浪费在这些重叠的问题上。
方法二:记忆化搜索¶
为了提升算法效率,我们希望所有的重叠子问题只被计算一次。具体来说,考虑借助一个数组 mem
来记录每个子问题的解。当首次计算 \(dp[i]\) 时,我们将其记录至 mem[i]
;当再次需要计算 \(dp[i]\) 时,我们便可直接从 mem[i]
中获取结果,从而实现将重叠子问题剪枝。这种方法被称为“记忆化搜索”。
/* 记忆化搜索 */
int dfs(int i, int[] mem) {
// 已知 dp[1] 和 dp[2] ,返回之
if (i == 1 || i == 2)
return i;
// 若存在记录 dp[i] ,则直接返回之
if (mem[i] != -1)
return mem[i];
// dp[i] = dp[i-1] + dp[i-2]
int count = dfs(i - 1, mem) + dfs(i - 2, mem);
// 记录 dp[i]
mem[i] = count;
return count;
}
/* 爬楼梯:记忆化搜索 */
int climbingStairsDFSMem(int n) {
// mem[i] 记录爬到第 i 阶的方案总数,-1 代表无记录
int[] mem = new int[n + 1];
Arrays.fill(mem, -1);
return dfs(n, mem);
}
/* 记忆化搜索 */
int dfs(int i, vector<int> &mem) {
// 已知 dp[1] 和 dp[2] ,返回之
if (i == 1 || i == 2)
return i;
// 若存在记录 dp[i] ,则直接返回之
if (mem[i] != -1)
return mem[i];
// dp[i] = dp[i-1] + dp[i-2]
int count = dfs(i - 1, mem) + dfs(i - 2, mem);
// 记录 dp[i]
mem[i] = count;
return count;
}
/* 爬楼梯:记忆化搜索 */
int climbingStairsDFSMem(int n) {
// mem[i] 记录爬到第 i 阶的方案总数,-1 代表无记录
vector<int> mem(n + 1, -1);
return dfs(n, mem);
}
def dfs(i: int, mem: list[int]) -> int:
"""记忆化搜索"""
# 已知 dp[1] 和 dp[2] ,返回之
if i == 1 or i == 2:
return i
# 若存在记录 dp[i] ,则直接返回之
if mem[i] != -1:
return mem[i]
# dp[i] = dp[i-1] + dp[i-2]
count = dfs(i - 1, mem) + dfs(i - 2, mem)
# 记录 dp[i]
mem[i] = count
return count
def climbing_stairs_dfs_mem(n: int) -> int:
"""爬楼梯:记忆化搜索"""
# mem[i] 记录爬到第 i 阶的方案总数,-1 代表无记录
mem = [-1] * (n + 1)
return dfs(n, mem)
观察下图,经过记忆化处理后,所有子问题都只需被计算一次,时间复杂度为 \(O(n)\) ,这是一个巨大的飞跃。实际上,如果不考虑递归带来的额外开销,记忆化搜索解法已经几乎等同于动态规划解法的时间效率。
Fig. 记忆化搜索对应递归树
方法三:动态规划¶
记忆化搜索是一种“从顶至底”的方法:我们从原问题(根节点)开始,递归地将较大子问题分解为较小子问题,直至解已知的最小子问题(叶节点);最终通过回溯将子问题的解逐层收集,得到原问题的解。
我们也可以直接“从底至顶”进行求解:从最小子问题开始,迭代地求解较大子问题,直至得到原问题的解。这便是动态规划。
由于没有回溯过程,动态规划可以直接基于循环实现。我们初始化一个数组 dp
来存储子问题的解,从最小子问题开始,逐步求解较大子问题。在以下代码中,数组 dp
起到了记忆化搜索中数组 mem
相同的记录作用。
与回溯算法一样,动态规划也使用“状态”概念来表示问题求解的某个特定阶段,每个状态都对应一个子问题以及相应的局部最优解。例如对于爬楼梯问题,状态定义为当前所在楼梯阶数。动态规划的常用术语包括:
- 将 \(dp\) 数组称为「状态列表」,索引与状态逐个对应,每个元素对应一个子问题的解;
- 将最简单子问题对应的状态(即第 \(1\) , \(2\) 阶楼梯)称为「初始状态」;
- 将递推公式 \(dp[i] = dp[i-1] + dp[i-2]\) 称为「状态转移方程」;
Fig. 爬楼梯的动态规划过程
细心的你可能发现,由于 \(dp[i]\) 只与 \(dp[i-1]\) 和 \(dp[i-2]\) 有关,因此我们无需使用一个数组 dp
来存储所有状态,而只需两个变量滚动前进即可。如以下代码所示,由于省去了数组 dp
占用的空间,因此空间复杂度从 \(O(n)\) 降低至 \(O(1)\) 。
这种做法被称为「状态压缩」。在许多动态规划问题中,当前状态仅与前面有限个状态有关,不必保存所有的历史状态,这时我们可以通过状态压缩的技巧,只保留必要的状态,通过“降维”来节省内存空间。
13.1.2. 最优子结构¶
爬楼梯问题很好地展示了重叠子问题。接下来,我们对题目稍作改动,使之更加适合展示最优子结构概念。
爬楼梯最小代价
给定一个楼梯,你每步可以上 \(1\) 阶或者 \(2\) 阶,每一阶楼梯上都贴有一个非负整数,表示你在该台阶所需要付出的代价。给定一个非负整数数组 \(cost\) ,其中 \(cost[i]\) 表示在第 \(i\) 个台阶需要付出的代价,\(cost[0]\) 为地面起始点。请计算最少需要付出多少代价才能到达顶部?
如下图所示,若第 \(1\) , \(2\) , \(3\) 阶的代价分别为 \(1\) , \(10\) , \(1\) ,则从地面爬到第 \(3\) 阶的最小代价为 \(2\) 。
Fig. 爬到第 3 阶的最小代价
设 \(dp[i]\) 为爬到第 \(i\) 阶累计付出的代价,由于第 \(i\) 阶只可能从 \(i - 1\) 阶或 \(i - 2\) 阶走来,因此 \(dp[i]\) 只可能等于 \(dp[i - 1] + cost[i]\) 或 \(dp[i - 2] + cost[i]\) 。为了尽可能减少代价,我们应该选择两者中较小的那一个,即:
这便可以引出「最优子结构」的含义:原问题的最优解是从子问题的最优解构建得来的。对于本题,我们从两个子问题最优解 \(dp[i-1]\) , \(dp[i-2]\) 中挑选出较优的那一个,并用它构建出原问题 \(dp[i]\) 的最优解。
相较于分治算法问题,动态规划问题的解也是由其子问题的解构成的。不同的是,动态规划中子问题的解不仅揭示了问题的局部最优解,而且还通过特定的递推关系链接起来,共同构建出原问题的全局最优解。
那么,上道爬楼梯题目有没有最优子结构呢?它要求解的是方案数量,看似是一个计数问题,但如果换一种问法:求解最大方案数量。我们惊喜地发现,虽然题目修改前后是等价的,但最优子结构浮现出来了:第 \(n\) 阶最大方案数量等于第 \(n-1\) 阶和第 \(n-2\) 阶最大方案数量之和。所以说,最优子结构的是一个比较宽泛的概念,在不同问题中会有不同的含义。
根据以上状态转移方程,以及初始状态 \(dp[1] = cost[1]\) , \(dp[2] = cost[2]\) ,我们可以得出动态规划解题代码。
/* 爬楼梯最小代价:动态规划 */
int minCostClimbingStairsDP(int[] cost) {
int n = cost.length - 1;
if (n == 1 || n == 2)
return cost[n];
// 初始化 dp 列表,用于存储子问题的解
int[] dp = new int[n + 1];
// 初始状态:预设最小子问题的解
dp[1] = cost[1];
dp[2] = cost[2];
// 状态转移:从较小子问题逐步求解较大子问题
for (int i = 3; i <= n; i++) {
dp[i] = Math.min(dp[i - 1], dp[i - 2]) + cost[i];
}
return dp[n];
}
/* 爬楼梯最小代价:动态规划 */
int minCostClimbingStairsDP(vector<int> &cost) {
int n = cost.size() - 1;
if (n == 1 || n == 2)
return cost[n];
// 初始化 dp 列表,用于存储子问题的解
vector<int> dp(n + 1);
// 初始状态:预设最小子问题的解
dp[1] = cost[1];
dp[2] = cost[2];
// 状态转移:从较小子问题逐步求解较大子问题
for (int i = 3; i <= n; i++) {
dp[i] = min(dp[i - 1], dp[i - 2]) + cost[i];
}
return dp[n];
}
def min_cost_climbing_stairs_dp(cost: list[int]) -> int:
"""爬楼梯最小代价:动态规划"""
n = len(cost) - 1
if n == 1 or n == 2:
return cost[n]
# 初始化 dp 列表,用于存储子问题的解
dp = [0] * (n + 1)
# 初始状态:预设最小子问题的解
dp[1], dp[2] = cost[1], cost[2]
# 状态转移:从较小子问题逐步求解较大子问题
for i in range(3, n + 1):
dp[i] = min(dp[i - 1], dp[i - 2]) + cost[i]
return dp[n]
Fig. 爬楼梯最小代价的动态规划过程
这道题同样也可以进行状态压缩,将一维压缩至零维,使得空间复杂度从 \(O(n)\) 降低至 \(O(1)\) 。
13.1.3. 无后效性¶
除了重叠子问题和最优子结构以外,「无后效性」也是动态规划能够有效解决问题的重要特性之一。我们先来看下无后效性定义:给定一个确定的状态,它的未来发展只与当前状态有关,而与当前状态过去所经历过的所有状态无关。
以爬楼梯问题为例,给定状态 \(i\) ,它会发展出状态 \(i+1\) 和状态 \(i+2\) ,分别对应跳 \(1\) 步和跳 \(2\) 步。在做出这两种选择时,我们无需考虑状态 \(i\) 之前的状态,即它们对状态 \(i\) 的未来没有影响。
然而,如果我们向爬楼梯问题添加一个约束,情况就不一样了。
带约束爬楼梯
给定一个共有 \(n\) 阶的楼梯,你每步可以上 \(1\) 阶或者 \(2\) 阶,但不能连续两轮跳 \(1\) 阶,请问有多少种方案可以爬到楼顶。
例如,爬上第 \(3\) 阶仅剩 \(2\) 种可行方案,其中连续三次跳 \(1\) 阶的方案不满足约束条件,因此被舍弃。
Fig. 带约束爬到第 3 阶的方案数量
在该问题中,下一步选择不能由当前状态(当前楼梯阶数)独立决定,还和前一个状态(上轮楼梯阶数)有关。如果上一轮是跳 \(1\) 阶上来的,那么下一轮就必须跳 \(2\) 阶。
不难发现,此问题已不满足无后效性,状态转移方程 \(dp[i] = dp[i-1] + dp[i-2]\) 也失效了,因为 \(dp[i-1]\) 代表本轮跳 \(1\) 阶,但其中包含了许多“上一轮跳 \(1\) 阶上来的”方案,而为了满足约束,我们不能将 \(dp[i-1]\) 直接计入 \(dp[i]\) 中。
为了解决该问题,我们需要扩展状态定义:状态 \([i, j]\) 表示处在第 \(i\) 阶、并且上一轮跳了 \(j\) 阶,其中 \(j \in \{1, 2\}\) 。此状态定义有效地区分了上一轮跳了 \(1\) 阶还是 \(2\) 阶,我们可以据此来决定下一步该怎么跳:
- 当 \(j\) 等于 \(1\) ,即上一轮跳了 \(1\) 阶时,这一轮只能选择跳 \(2\) 阶;
- 当 \(j\) 等于 \(2\) ,即上一轮跳了 \(2\) 阶时,这一轮可选择跳 \(1\) 阶或跳 \(2\) 阶;
在该定义下,\(dp[i, j]\) 表示状态 \([i, j]\) 对应的方案数。由此,我们便能推导出以下的状态转移方程:
Fig. 考虑约束下的递推关系
最终,返回 \(dp[n, 1] + dp[n, 2]\) 即可,两者之和代表爬到第 \(n\) 阶的方案总数。
/* 带约束爬楼梯:动态规划 */
int climbingStairsConstraintDP(int n) {
if (n == 1 || n == 2) {
return n;
}
// 初始化 dp 列表,用于存储子问题的解
int[][] dp = new int[n + 1][3];
// 初始状态:预设最小子问题的解
dp[1][1] = 1;
dp[1][2] = 0;
dp[2][1] = 0;
dp[2][2] = 1;
// 状态转移:从较小子问题逐步求解较大子问题
for (int i = 3; i <= n; i++) {
dp[i][1] = dp[i - 1][2];
dp[i][2] = dp[i - 2][1] + dp[i - 2][2];
}
return dp[n][1] + dp[n][2];
}
/* 带约束爬楼梯:动态规划 */
int climbingStairsConstraintDP(int n) {
if (n == 1 || n == 2) {
return n;
}
// 初始化 dp 列表,用于存储子问题的解
vector<vector<int>> dp(n + 1, vector<int>(3, 0));
// 初始状态:预设最小子问题的解
dp[1][1] = 1;
dp[1][2] = 0;
dp[2][1] = 0;
dp[2][2] = 1;
// 状态转移:从较小子问题逐步求解较大子问题
for (int i = 3; i <= n; i++) {
dp[i][1] = dp[i - 1][2];
dp[i][2] = dp[i - 2][1] + dp[i - 2][2];
}
return dp[n][1] + dp[n][2];
}
def climbing_stairs_constraint_dp(n: int) -> int:
"""带约束爬楼梯:动态规划"""
if n == 1 or n == 2:
return n
# 初始化 dp 列表,用于存储子问题的解
dp = [[0] * 3 for _ in range(n + 1)]
# 初始状态:预设最小子问题的解
dp[1][1], dp[1][2] = 1, 0
dp[2][1], dp[2][2] = 0, 1
# 状态转移:从较小子问题逐步求解较大子问题
for i in range(3, n + 1):
dp[i][1] = dp[i - 1][2]
dp[i][2] = dp[i - 2][1] + dp[i - 2][2]
return dp[n][1] + dp[n][2]
在上面的案例中,由于仅需多考虑前面一个状态,我们仍然可以通过扩展状态定义,使得问题恢复无后效性。然而,许多问题具有非常严重的“有后效性”,例如:
爬楼梯与障碍生成
给定一个共有 \(n\) 阶的楼梯,你每步可以上 \(1\) 阶或者 \(2\) 阶。规定当爬到第 \(i\) 阶时,系统自动会给第 \(2i\) 阶上放上障碍物,之后所有轮都不允许跳到第 \(2i\) 阶上。例如,前两轮分别跳到了第 \(2, 3\) 阶上,则之后就不能跳到第 \(4, 6\) 阶上。请问有多少种方案可以爬到楼顶。
在这个问题中,下次跳跃依赖于过去所有的状态,因为每一次跳跃都会在更高的阶梯上设置障碍,并影响未来的跳跃。对于这类问题,动态规划往往难以解决,或是因为计算复杂度过高而难以应用。
实际上,许多组合优化问题(例如著名的旅行商问题)都不满足无后效性。对于这类问题,我们通常会选择使用其他方法,例如启发式搜索、遗传算法、强化学习等,从而降低时间复杂度,在有限时间内得到能够接受的局部最优解。