并行与分布式系统中的并行线性方程组求解:基于并行化共轭梯度法(Conjugate Gradient, CG)的预处理技术
字数 6340 2025-12-24 08:09:40

并行与分布式系统中的并行线性方程组求解:基于并行化共轭梯度法(Conjugate Gradient, CG)的预处理技术

好的,我为你讲解一个尚未出现在列表中的经典并行与分布式算法:基于并行化共轭梯度法(CG)的预处理技术。这是一个用于求解大规模稀疏对称正定线性方程组 \(A\mathbf{x} = \mathbf{b}\) 的核心算法,在科学计算(如有限元分析、计算流体力学)中应用极为广泛。其并行化的关键在于将计算任务和数据进行有效划分。


题目描述

我们面临的问题是求解一个大型稀疏对称正定线性方程组:

\[ A \mathbf{x} = \mathbf{b} \]

其中:

  • \(A\) 是一个 \(n \times n\) 的稀疏对称正定矩阵。
  • \(\mathbf{x}\) 是未知向量(解向量)。
  • \(\mathbf{b}\) 是已知的右端向量。

串行的共轭梯度法是一种迭代法,但为了在超算集群或GPU上高效求解上百万甚至上亿维度的方程组,我们必须将其并行化。然而,原版的CG算法在并行时面临严重的“全局通信”(特别是内积计算)和“稀疏矩阵-向量乘法(SpMV)”的负载均衡问题。因此,预处理技术变得至关重要,它能显著减少迭代次数,但其并行友好的构造本身也是一个挑战。

并行化目标:设计一个并行算法,将CG迭代中的主要计算(矩阵-向量乘、向量内积、向量更新)以及关键的预处理步骤(例如,应用一个近似逆矩阵 \(M^{-1}\) )分配到多个处理器上,同时最小化处理器间的通信开销和同步等待时间,并保持算法的数值稳定性。


循序渐进解题过程

我们分步拆解,从算法原理到并行挑战,再到具体的并行化与预处理策略。

步骤1:理解串行共轭梯度法(CG)的核心流程

首先,你需要掌握CG算法的串行版本。其伪代码如下:

  1. 初始化:

\[ \mathbf{r}_0 = \mathbf{b} - A \mathbf{x}_0 \quad (\text{初始残差}) \]

\[ \mathbf{p}_0 = \mathbf{r}_0 \quad (\text{初始搜索方向}) \]

  1. 迭代 for \(k = 0, 1, 2, ...\) until convergence:
    • 计算步长 \(\alpha_k\)

\[ \alpha_k = \frac{\mathbf{r}_k^T \mathbf{r}_k}{\mathbf{p}_k^T A \mathbf{p}_k} \]

  • 更新解:

\[ \mathbf{x}_{k+1} = \mathbf{x}_k + \alpha_k \mathbf{p}_k \]

  • 更新残差:

\[ \mathbf{r}_{k+1} = \mathbf{r}_k - \alpha_k A \mathbf{p}_k \]

  • 检查收敛条件 \(\|\mathbf{r}_{k+1}\| < \epsilon\)
  • 计算用于下一步的系数 \(\beta_k\)

\[ \beta_k = \frac{\mathbf{r}_{k+1}^T \mathbf{r}_{k+1}}{\mathbf{r}_k^T \mathbf{r}_k} \]

  • 更新搜索方向:

\[ \mathbf{p}_{k+1} = \mathbf{r}_{k+1} + \beta_k \mathbf{p}_k \]

关键计算操作

  1. 稀疏矩阵-向量乘法(SpMV): \(A \mathbf{p}_k\)。这是计算最密集的部分,也是并行的重点。
  2. 向量内积(Dot Product): 计算 \(\mathbf{r}^T \mathbf{r}\)\(\mathbf{p}^T (A\mathbf{p})\)。这需要全局归约(Global Reduction)通信。
  3. 向量更新(AXPY): 如 \(\mathbf{x} + \alpha \mathbf{p}\)。这是完全可并行(Embarrassingly Parallel)的。

步骤2:识别并行化的挑战与瓶颈

  1. SpMV的负载均衡与通信

    • 矩阵 \(A\) 通常是稀疏的,非零元的分布可能不均匀。
    • 在分布式内存系统中,矩阵和向量被分块存储在不同处理器上。计算 \(A\mathbf{p}\) 时,处理器可能需要访问其他处理器上的向量分量(“halo”或“ghost”区域),产生点对点通信。
  2. 全局内积的同步开销

    • 计算 \(\alpha_k\)\(\beta_k\) 需要两个全局内积。这要求所有处理器先完成本地部分内积计算,然后通过一次“All-Reduce”通信(求和)得到全局结果,再进行一次广播(通常All-Reduce操作本身就包含了广播)。这个同步点是算法的主要瓶颈,尤其是在迭代次数很多时。
  3. 预处理器的并行友好性

    • 原始CG收敛速度取决于矩阵 \(A\) 的条件数。条件数越大,收敛越慢。
    • 预处理器 \(M\) 的目标是求解一个等价的、条件数更好的方程组:\(M^{-1}A\mathbf{x} = M^{-1}\mathbf{b}\)
    • 理想的预处理器 \(M^{-1}\) 应该近似于 \(A^{-1}\),但本身要易于计算和并行应用。例如,对角(Jacobi)预处理器完全可并行,但效果有限;而不完全Cholesky分解(ILU)预处理器效果更好,但本身具有前/回代递推性,难以并行。

步骤3:设计数据与计算划分

这是并行算法的核心设计阶段。

  1. 矩阵与向量的分布

    • 最常用的方法是按行块划分。将矩阵 \(A\) 的行分成连续(或按图划分算法优化过的)块,分给不同的处理器。每个处理器存储它所分配行的所有非零元。
    • 对应的,解向量 \(\mathbf{x}\)、右端向量 \(\mathbf{b}\)、残差向量 \(\mathbf{r}\)、搜索方向向量 \(\mathbf{p}\) 也按相同的划分方式分布。即,处理器 \(i\) 拥有这些向量的第 \(i\) 个块。
  2. 并行SpMV操作

    • 处理器 \(i\) 计算 \(A_i \mathbf{p}\) 时,其中 \(A_i\) 是它本地存储的矩阵行块。
    • 由于 \(\mathbf{p}\) 是分布式的,计算可能需要其他处理器上的 \(\mathbf{p}\) 分量。这通过一个通信阶段来解决:每个处理器先确定它需要哪些“外部”的 \(\mathbf{p}\) 分量,然后与相邻处理器交换这些数据(通常使用“ halo exchange ”或“ neighbor communication ”)。
    • 优化:在迭代开始前,分析矩阵的非零元结构,建立一个持久的通信模式(邻居处理器列表和需要交换的数据索引),避免每次迭代都重新分析。
  3. 并行内积操作

    • 每个处理器先计算其本地向量块的局部内积(如 local_dot = sum(r_local[i] * r_local[i]))。
    • 然后,所有处理器参与一个全局归约求和(MPI_Allreduce) 操作,得到全局内积值。这个值是所有处理器同步一致的,用于后续计算 \(\alpha_k\)\(\beta_k\)

步骤4:集成并行友好的预处理器

为了加速收敛,我们必须选择一个既能有效降低条件数,又便于并行的预处理器 \(M\)。这里介绍几种经典选择:

  1. 雅可比(对角)预处理:

    • \(M = \text{diag}(A)\)。应用 \(M^{-1}\) 就是每个处理器用其本地存储的矩阵对角元的倒数乘以其本地向量块。
    • 优点:完全并行,零通信。
    • 缺点:对于非对角占优问题,效果提升有限。
  2. 块雅可比预处理:

    • 将矩阵按处理器划分为块对角形式。\(M\) 由每个处理器本地的子矩阵块(不一定只是对角元,而是一个小的稠密或稀疏块)构成。
    • 每个处理器独立求解其本地子系统的线性方程(例如,使用直接法或迭代法)来应用 \(M^{-1}\)
    • 优点:比对角预处理效果好,且处理器间无耦合,完全并行。
    • 缺点:忽略了处理器间的耦合,对于强耦合问题,效果会打折扣。
  3. 加性施瓦茨(Additive Schwarz)预处理:

    • 这是块雅可比的自然推广。每个处理器不仅拥有一个“子域”,还拥有一个重叠的“扩展区域”(overlap)。
    • 应用预处理器时,每个处理器在其扩展子域上求解一个局部问题,然后只取其核心子域的结果。
    • 优点:通过重叠区域包含了部分处理器间的耦合信息,收敛性通常优于块雅可比。
    • 缺点:构造扩展区域需要额外的通信和内存;局部求解的规模变大了。
  4. 不完全Cholesky(IC)与域分解的结合:

    • 在分布式内存中,全局的不完全分解难以并行。通常采用基于域分解的预处理,如:
      • Schur Complement / Neumann-Neumann:将全局域划分为多个不重叠的子域,在子域边界上构造一个“界面问题”。预处理过程涉及子域内并行求解和界面上的协同求解。
      • Balancing Domain Decomposition (BDD):一种更先进的、带“粗网格校正”的域分解预处理方法。它包含两个层次:1) 各子域并行的局部预处理,2) 一个全局的、小规模的“粗网格”问题用于传播误差信息。求解粗网格问题需要一次全局通信。
    • 优点:对于复杂问题,这类预处理器扩展性(即随着处理器数量增加,迭代次数增长缓慢)最好。
    • 缺点:算法复杂,实现难度高。

在实际的并行CG库(如Trilinos, PETSc, Hypre)中,通常会提供上述多种预处理器供用户选择。

步骤5:组装完整的并行预处理共轭梯度(PCG)算法

现在,我们将所有部分组合起来。假设我们使用一个抽象的预处理器 ApplyPreconditioner(z, r),它并行地计算 \(\mathbf{z} = M^{-1} \mathbf{r}\)。在PCG中,我们预处理的是残差向量,并用于构造搜索方向。

并行预处理共轭梯度(PCG)算法流程

初始分布:每个处理器 \(i\) 拥有 \(A_i\)(矩阵行块),以及 \(\mathbf{x}_i^{(0)}, \mathbf{b}_i, \mathbf{r}_i^{(0)}, \mathbf{p}_i^{(0)}, \mathbf{z}_i^{(0)}\) 的对应块。

  1. 并行初始化:

    • 计算本地残差:\(\mathbf{r}_i^{(0)} = \mathbf{b}_i - A_i \mathbf{x}^{(0)}\) (需要一次SpMV和通信获取完整的 \(\mathbf{x}^{(0)}\))。
    • 应用预处理器:\(\mathbf{z}_i^{(0)} = M_i^{-1} \mathbf{r}_i^{(0)}\) (完全本地或涉及固定模式的邻居通信)。
    • 设初始搜索方向:\(\mathbf{p}_i^{(0)} = \mathbf{z}_i^{(0)}\)
    • 计算局部内积 \(\rho_{i,0} = (\mathbf{r}_i^{(0)})^T \mathbf{z}_i^{(0)}\)
  2. 全局同步1(内积归约):

    • 所有处理器执行 Allreduce(求和)操作,得到全局 \(\rho_0 = \sum_i \rho_{i,0}\)
  3. 并行迭代 for \(k = 0, 1, ...\):

    • a. 并行SpMV:
      • 进行邻居通信,收集计算所需的 \(\mathbf{p}_i^{(k)}\) 的“halo”数据。
      • 计算本地矩阵 向量积:\(\mathbf{q}_i^{(k)} = A_i \mathbf{p}^{(k)}\)
    • b. 并行局部内积:
      • 计算局部内积 \(\sigma_{i,k} = (\mathbf{p}_i^{(k)})^T \mathbf{q}_i^{(k)}\)
    • c. 全局同步2(内积归约):
      • Allreduce(求和)得到全局 \(\sigma_k = \sum_i \sigma_{i,k}\)
    • d. 并行计算步长与更新:
      • 计算 \(\alpha_k = \rho_k / \sigma_k\)
      • 更新本地解:\(\mathbf{x}_i^{(k+1)} = \mathbf{x}_i^{(k)} + \alpha_k \mathbf{p}_i^{(k)}\) (纯本地)。
      • 更新本地残差:\(\mathbf{r}_i^{(k+1)} = \mathbf{r}_i^{(k)} - \alpha_k \mathbf{q}_i^{(k)}\) (纯本地)。
    • e. 收敛检查:
      • 可选:计算本地残差范数,通过 Allreduce 得到全局范数,判断是否小于 \(\epsilon\)
    • f. 并行应用预处理器:
      • \(\mathbf{z}_i^{(k+1)} = M_i^{-1} \mathbf{r}_i^{(k+1)}\)
    • g. 并行局部内积(为新方向准备):
      • 计算 \(\rho_{i, k+1}^{local} = (\mathbf{r}_i^{(k+1)})^T \mathbf{z}_i^{(k+1)}\)
    • h. 全局同步3(内积归约):
      • Allreduce(求和)得到全局 \(\rho_{k+1} = \sum_i \rho_{i, k+1}^{local}\)
    • i. 并行计算新搜索方向:
      • 计算 \(\beta_k = \rho_{k+1} / \rho_k\)
      • 更新本地搜索方向:\(\mathbf{p}_i^{(k+1)} = \mathbf{z}_i^{(k+1)} + \beta_k \mathbf{p}_i^{(k)}\) (纯本地)。

关键点

  • 每个迭代包含 两次(或三次,如果检查残差)全局Allreduce通信
  • 包含 一次稀疏矩阵-向量乘所需的邻居通信
  • 预处理器 \(M^{-1}\) 的应用可能引入额外的、但模式固定的通信(如加性施瓦茨中的halo交换)。
  • 所有向量更新(AXPY)都是纯本地计算,完美并行。

总结

并行预处理共轭梯度法是科学计算中并行化线性代数求解器的典范。它的核心思想是:

  1. 任务分解:将庞大的矩阵和向量按行分块,分配到各个处理器。
  2. 计算并行化:将SpMV、向量更新等计算转化为本地计算加固定模式通信。
  3. 通信优化:识别并集中处理全局同步点(内积归约),使用高效的集合通信原语;为SpMV建立持久通信模式以减少开销。
  4. 算法加速:通过精心设计并行友好的预处理器(如域分解方法)来减少必需的迭代次数,从而在整体上战胜因并行化带来的单次迭代开销增加,实现真正的加速(强扩展和弱扩展)。

理解和实现这个算法,需要对线性代数、迭代法、并行计算模型(尤其是MPI)和稀疏数据结构都有深入的掌握。它是连接数值分析与高性能计算的桥梁。

并行与分布式系统中的并行线性方程组求解:基于并行化共轭梯度法(Conjugate Gradient, CG)的预处理技术 好的,我为你讲解一个尚未出现在列表中的经典并行与分布式算法: 基于并行化共轭梯度法(CG)的预处理技术 。这是一个用于求解大规模稀疏对称正定线性方程组 \( A\mathbf{x} = \mathbf{b} \) 的核心算法,在科学计算(如有限元分析、计算流体力学)中应用极为广泛。其并行化的关键在于将计算任务和数据进行有效划分。 题目描述 我们面临的问题是求解一个大型稀疏对称正定线性方程组: \[ A \mathbf{x} = \mathbf{b} \] 其中: \( A \) 是一个 \( n \times n \) 的稀疏对称正定矩阵。 \( \mathbf{x} \) 是未知向量(解向量)。 \( \mathbf{b} \) 是已知的右端向量。 串行的共轭梯度法是一种迭代法,但为了在超算集群或GPU上高效求解上百万甚至上亿维度的方程组,我们必须将其并行化。然而,原版的CG算法在并行时面临严重的“全局通信”(特别是内积计算)和“稀疏矩阵-向量乘法(SpMV)”的负载均衡问题。因此, 预处理技术 变得至关重要,它能显著减少迭代次数,但其并行友好的构造本身也是一个挑战。 并行化目标 :设计一个并行算法,将CG迭代中的主要计算(矩阵-向量乘、向量内积、向量更新)以及关键的预处理步骤(例如,应用一个近似逆矩阵 \( M^{-1} \) )分配到多个处理器上,同时最小化处理器间的通信开销和同步等待时间,并保持算法的数值稳定性。 循序渐进解题过程 我们分步拆解,从算法原理到并行挑战,再到具体的并行化与预处理策略。 步骤1:理解串行共轭梯度法(CG)的核心流程 首先,你需要掌握CG算法的串行版本。其伪代码如下: 初始化 : \[ \mathbf{r}_ 0 = \mathbf{b} - A \mathbf{x}_ 0 \quad (\text{初始残差}) \] \[ \mathbf{p}_ 0 = \mathbf{r}_ 0 \quad (\text{初始搜索方向}) \] 迭代 for \( k = 0, 1, 2, ... \) until convergence: 计算步长 \( \alpha_ k \): \[ \alpha_ k = \frac{\mathbf{r}_ k^T \mathbf{r}_ k}{\mathbf{p}_ k^T A \mathbf{p}_ k} \] 更新解: \[ \mathbf{x}_ {k+1} = \mathbf{x}_ k + \alpha_ k \mathbf{p}_ k \] 更新残差: \[ \mathbf{r}_ {k+1} = \mathbf{r}_ k - \alpha_ k A \mathbf{p}_ k \] 检查收敛条件 \( \|\mathbf{r}_ {k+1}\| < \epsilon \)。 计算用于下一步的系数 \( \beta_ k \): \[ \beta_ k = \frac{\mathbf{r} {k+1}^T \mathbf{r} {k+1}}{\mathbf{r}_ k^T \mathbf{r}_ k} \] 更新搜索方向: \[ \mathbf{p} {k+1} = \mathbf{r} {k+1} + \beta_ k \mathbf{p}_ k \] 关键计算操作 : 稀疏矩阵-向量乘法(SpMV) : \( A \mathbf{p}_ k \)。这是计算最密集的部分,也是并行的重点。 向量内积(Dot Product) : 计算 \( \mathbf{r}^T \mathbf{r} \) 和 \( \mathbf{p}^T (A\mathbf{p}) \)。这需要全局归约(Global Reduction)通信。 向量更新(AXPY) : 如 \( \mathbf{x} + \alpha \mathbf{p} \)。这是完全可并行(Embarrassingly Parallel)的。 步骤2:识别并行化的挑战与瓶颈 SpMV的负载均衡与通信 : 矩阵 \( A \) 通常是稀疏的,非零元的分布可能不均匀。 在分布式内存系统中,矩阵和向量被分块存储在不同处理器上。计算 \( A\mathbf{p} \) 时,处理器可能需要访问其他处理器上的向量分量(“halo”或“ghost”区域),产生点对点通信。 全局内积的同步开销 : 计算 \( \alpha_ k \) 和 \( \beta_ k \) 需要两个全局内积。这要求所有处理器先完成本地部分内积计算,然后通过一次“All-Reduce”通信(求和)得到全局结果,再进行一次广播(通常All-Reduce操作本身就包含了广播)。这个同步点是算法的主要瓶颈,尤其是在迭代次数很多时。 预处理器的并行友好性 : 原始CG收敛速度取决于矩阵 \( A \) 的条件数。条件数越大,收敛越慢。 预处理器 \( M \) 的目标是求解一个等价的、条件数更好的方程组:\( M^{-1}A\mathbf{x} = M^{-1}\mathbf{b} \)。 理想的预处理器 \( M^{-1} \) 应该近似于 \( A^{-1} \),但本身要易于计算和并行应用。例如,对角(Jacobi)预处理器完全可并行,但效果有限;而不完全Cholesky分解(ILU)预处理器效果更好,但本身具有前/回代递推性,难以并行。 步骤3:设计数据与计算划分 这是并行算法的核心设计阶段。 矩阵与向量的分布 : 最常用的方法是 按行块划分 。将矩阵 \( A \) 的行分成连续(或按图划分算法优化过的)块,分给不同的处理器。每个处理器存储它所分配行的所有非零元。 对应的,解向量 \( \mathbf{x} \)、右端向量 \( \mathbf{b} \)、残差向量 \( \mathbf{r} \)、搜索方向向量 \( \mathbf{p} \) 也按相同的划分方式分布。即,处理器 \( i \) 拥有这些向量的第 \( i \) 个块。 并行SpMV操作 : 处理器 \( i \) 计算 \( A_ i \mathbf{p} \) 时,其中 \( A_ i \) 是它本地存储的矩阵行块。 由于 \( \mathbf{p} \) 是分布式的,计算可能需要其他处理器上的 \( \mathbf{p} \) 分量。这通过一个 通信阶段 来解决:每个处理器先确定它需要哪些“外部”的 \( \mathbf{p} \) 分量,然后与相邻处理器交换这些数据(通常使用“ halo exchange ”或“ neighbor communication ”)。 优化 :在迭代开始前,分析矩阵的非零元结构,建立一个持久的通信模式(邻居处理器列表和需要交换的数据索引),避免每次迭代都重新分析。 并行内积操作 : 每个处理器先计算其本地向量块的局部内积(如 local_dot = sum(r_local[i] * r_local[i]) )。 然后,所有处理器参与一个 全局归约求和(MPI_ Allreduce) 操作,得到全局内积值。这个值是所有处理器同步一致的,用于后续计算 \( \alpha_ k \) 和 \( \beta_ k \)。 步骤4:集成并行友好的预处理器 为了加速收敛,我们必须选择一个既能有效降低条件数,又便于并行的预处理器 \( M \)。这里介绍几种经典选择: 雅可比(对角)预处理 : \( M = \text{diag}(A) \)。应用 \( M^{-1} \) 就是每个处理器用其本地存储的矩阵对角元的倒数乘以其本地向量块。 优点 :完全并行,零通信。 缺点 :对于非对角占优问题,效果提升有限。 块雅可比预处理 : 将矩阵按处理器划分为块对角形式。\( M \) 由每个处理器本地的子矩阵块(不一定只是对角元,而是一个小的稠密或稀疏块)构成。 每个处理器独立求解其本地子系统的线性方程(例如,使用直接法或迭代法)来应用 \( M^{-1} \)。 优点 :比对角预处理效果好,且处理器间无耦合,完全并行。 缺点 :忽略了处理器间的耦合,对于强耦合问题,效果会打折扣。 加性施瓦茨(Additive Schwarz)预处理 : 这是块雅可比的自然推广。每个处理器不仅拥有一个“子域”,还拥有一个重叠的“扩展区域”(overlap)。 应用预处理器时,每个处理器在其扩展子域上求解一个局部问题,然后只取其核心子域的结果。 优点 :通过重叠区域包含了部分处理器间的耦合信息,收敛性通常优于块雅可比。 缺点 :构造扩展区域需要额外的通信和内存;局部求解的规模变大了。 不完全Cholesky(IC)与域分解的结合 : 在分布式内存中,全局的不完全分解难以并行。通常采用 基于域分解的预处理 ,如: Schur Complement / Neumann-Neumann :将全局域划分为多个不重叠的子域,在子域边界上构造一个“界面问题”。预处理过程涉及子域内并行求解和界面上的协同求解。 Balancing Domain Decomposition (BDD) :一种更先进的、带“粗网格校正”的域分解预处理方法。它包含两个层次:1) 各子域并行的局部预处理,2) 一个全局的、小规模的“粗网格”问题用于传播误差信息。求解粗网格问题需要一次全局通信。 优点 :对于复杂问题,这类预处理器扩展性(即随着处理器数量增加,迭代次数增长缓慢)最好。 缺点 :算法复杂,实现难度高。 在实际的并行CG库(如Trilinos, PETSc, Hypre)中,通常会提供上述多种预处理器供用户选择。 步骤5:组装完整的并行预处理共轭梯度(PCG)算法 现在,我们将所有部分组合起来。假设我们使用一个抽象的预处理器 ApplyPreconditioner(z, r) ,它并行地计算 \( \mathbf{z} = M^{-1} \mathbf{r} \)。在PCG中,我们预处理的是残差向量,并用于构造搜索方向。 并行预处理共轭梯度(PCG)算法流程 : 初始分布 :每个处理器 \( i \) 拥有 \( A_ i \)(矩阵行块),以及 \( \mathbf{x}_ i^{(0)}, \mathbf{b}_ i, \mathbf{r}_ i^{(0)}, \mathbf{p}_ i^{(0)}, \mathbf{z}_ i^{(0)} \) 的对应块。 并行初始化 : 计算本地残差:\( \mathbf{r}_ i^{(0)} = \mathbf{b}_ i - A_ i \mathbf{x}^{(0)} \) (需要一次SpMV和通信获取完整的 \( \mathbf{x}^{(0)} \))。 应用预处理器:\( \mathbf{z}_ i^{(0)} = M_ i^{-1} \mathbf{r}_ i^{(0)} \) (完全本地或涉及固定模式的邻居通信)。 设初始搜索方向:\( \mathbf{p}_ i^{(0)} = \mathbf{z}_ i^{(0)} \)。 计算局部内积 \( \rho_ {i,0} = (\mathbf{r}_ i^{(0)})^T \mathbf{z}_ i^{(0)} \)。 全局同步1(内积归约) : 所有处理器执行 Allreduce (求和)操作,得到全局 \( \rho_ 0 = \sum_ i \rho_ {i,0} \)。 并行迭代 for \( k = 0, 1, ... \): a. 并行SpMV : 进行邻居通信,收集计算所需的 \( \mathbf{p}_ i^{(k)} \) 的“halo”数据。 计算本地矩阵 向量积:\( \mathbf{q}_ i^{(k)} = A_ i \mathbf{p}^{(k)} \)。 b. 并行局部内积 : 计算局部内积 \( \sigma_ {i,k} = (\mathbf{p}_ i^{(k)})^T \mathbf{q}_ i^{(k)} \)。 c. 全局同步2(内积归约) : Allreduce (求和)得到全局 \( \sigma_ k = \sum_ i \sigma_ {i,k} \)。 d. 并行计算步长与更新 : 计算 \( \alpha_ k = \rho_ k / \sigma_ k \)。 更新本地解:\( \mathbf{x}_ i^{(k+1)} = \mathbf{x}_ i^{(k)} + \alpha_ k \mathbf{p}_ i^{(k)} \) (纯本地)。 更新本地残差:\( \mathbf{r}_ i^{(k+1)} = \mathbf{r}_ i^{(k)} - \alpha_ k \mathbf{q}_ i^{(k)} \) (纯本地)。 e. 收敛检查 : 可选:计算本地残差范数,通过 Allreduce 得到全局范数,判断是否小于 \( \epsilon \)。 f. 并行应用预处理器 : \( \mathbf{z}_ i^{(k+1)} = M_ i^{-1} \mathbf{r}_ i^{(k+1)} \)。 g. 并行局部内积(为新方向准备) : 计算 \( \rho_ {i, k+1}^{local} = (\mathbf{r}_ i^{(k+1)})^T \mathbf{z}_ i^{(k+1)} \)。 h. 全局同步3(内积归约) : Allreduce (求和)得到全局 \( \rho_ {k+1} = \sum_ i \rho_ {i, k+1}^{local} \)。 i. 并行计算新搜索方向 : 计算 \( \beta_ k = \rho_ {k+1} / \rho_ k \)。 更新本地搜索方向:\( \mathbf{p}_ i^{(k+1)} = \mathbf{z}_ i^{(k+1)} + \beta_ k \mathbf{p}_ i^{(k)} \) (纯本地)。 关键点 : 每个迭代包含 两次(或三次,如果检查残差)全局Allreduce通信 。 包含 一次稀疏矩阵-向量乘所需的邻居通信 。 预处理器 \( M^{-1} \) 的应用可能引入额外的、但模式固定的通信(如加性施瓦茨中的halo交换)。 所有向量更新(AXPY)都是纯本地计算,完美并行。 总结 并行预处理共轭梯度法是科学计算中并行化线性代数求解器的典范。它的核心思想是: 任务分解 :将庞大的矩阵和向量按行分块,分配到各个处理器。 计算并行化 :将SpMV、向量更新等计算转化为本地计算加固定模式通信。 通信优化 :识别并集中处理全局同步点(内积归约),使用高效的集合通信原语;为SpMV建立持久通信模式以减少开销。 算法加速 :通过精心设计并行友好的预处理器(如域分解方法)来减少必需的迭代次数,从而在整体上战胜因并行化带来的单次迭代开销增加,实现真正的加速(强扩展和弱扩展)。 理解和实现这个算法,需要对线性代数、迭代法、并行计算模型(尤其是MPI)和稀疏数据结构都有深入的掌握。它是连接数值分析与高性能计算的桥梁。