商城首页欢迎来到中国正版软件门户

您的位置:首页 >双线性最小二乘拟合Python实现及系数解析解

双线性最小二乘拟合Python实现及系数解析解

  发布于2026-03-18 阅读(0)

扫一扫,手机访问

Python 中实现任意散点数据的双线性最小二乘拟合(含系数解析解)

本文介绍如何对非网格、非均匀、甚至缺失值的二维散点数据(x, y → z)进行双线性模型 z = a·x + b·y + c·x·y + d 的最小二乘拟合,直接求解闭式系数 [a, b, c, d],无需插值或黑盒模型。

双线性拟合本质上是关于参数 $ a, b, c, d $ 的线性回归问题——尽管模型在变量 $ x $ 和 $ y $ 上呈现乘积项($ xy $),但它对未知系数仍是线性的。因此,无需复杂优化或迭代算法,可直接通过正规方程(Normal Equation) 求得最小二乘意义下的唯一最优解。

给定 $ N $ 个观测样本 $ (x_i, y_i, z_i) $,我们最小化残差平方和:

$$ S = \sum_{i=1}^{N} \left( a x_i + b y_i + c x_i y_i + d - z_i \right)^2 $$

对 $ a, b, c, d $ 分别求偏导并令其为零,得到一组线性方程组:

$$ \begin{bmatrix} \sum x_i^2 & \sum x_i y_i & \sum x_i^2 y_i & \sum x_i \ \sum x_i y_i & \sum y_i^2 & \sum x_i y_i^2 & \sum y_i \ \sum x_i^2 y_i & \sum x_i y_i^2 & \sum x_i^2 y_i^2 & \sum x_i y_i \ \sum x_i & \sum y_i & \sum x_i y_i & N \end{bmatrix} \begin{bmatrix} a \ b \ c \ d \end{bmatrix}

\begin{bmatrix} \sum x_i z_i \ \sum y_i z_i \ \sum x_i y_i z_i \ \sum z_i \end{bmatrix} $$

该方程组系数矩阵对称正定(只要数据足够分散),可用 numpy.linalg.solve 稳健求解。

以下为完整、可直接运行的 Python 实现:

import numpy as np

def bilinear_fit(data):
    """
    对散点数据 (x, y, z) 进行双线性最小二乘拟合:
        z = a*x + b*y + c*x*y + d
    返回系数 [a, b, c, d]

    Parameters:
    -----------
    data : list of [x, y, z] or ndarray of shape (N, 3)

    Returns:
    --------
    np.ndarray: [a, b, c, d]
    """
    data = np.asarray(data)
    x, y, z = data[:, 0], data[:, 1], data[:, 2]
    N = len(x)

    # 预计算所有必要统计量
    Sx   = np.sum(x)
    Sxx  = np.sum(x * x)
    Sy   = np.sum(y)
    Syy  = np.sum(y * y)
    Sxy  = np.sum(x * y)
    Sxxy = np.sum(x * x * y)
    Sxyy = np.sum(x * y * y)
    Sxxyy = np.sum(x * x * y * y)
    Sz   = np.sum(z)
    Sxz  = np.sum(x * z)
    Syz  = np.sum(y * z)
    Sxyz = np.sum(x * y * z)

    # 构建正规方程系数矩阵 A 和右侧向量 RHS
    A = np.array([
        [Sxx,  Sxy,  Sxxy, Sx  ],
        [Sxy,  Syy,  Sxyy, Sy  ],
        [Sxxy, Sxyy, Sxxyy, Sxy],
        [Sx,   Sy,   Sxy,  N   ]
    ])
    RHS = np.array([Sxz, Syz, Sxyz, Sz])

    # 求解线性系统:A @ [a,b,c,d] = RHS
    coeffs = np.linalg.solve(A, RHS)
    return coeffs

# 示例数据(来自用户提供的 30 个样本)
D = [
    [1056,   8,   50.89124679], [1056,  16,  61.62827273], [1056,  32,  78.83079982],
    [1056,  48,  92.90073197], [1056,  64, 105.103744],   [1056,  80, 116.0303753],
    [1056,  96, 126.0130906],  [1056, 112, 135.2610439],  [1056, 128, 143.9159512],
    [1056, 144, 152.0790946],  [2048,   8,  63.71675604], [2048,  16,  77.15971099],
    [2048,  32,  98.69757849], [2048,  48, 116.313387],   [2048,  64, 131.5917779],
    [2048,  80, 145.2721136],  [2048,  96, 157.7706532],  [2048, 112, 169.3492575],
    [2048, 128, 180.1853546],  [2048, 144, 190.4057615],  [4096,   8,  86.7357654],
    [4096,  16, 105.0352703],  [4096,  32, 134.3541477],  [4096,  48, 158.334033],
    [4096,  64, 179.1320602],  [4096,  80, 197.7547066],  [4096,  96, 214.7686034],
    [4096, 112, 230.5302193],  [4096, 128, 245.2810877],  [4096, 144, 259.193829]
]

a, b, c, d = bilinear_fit(D)
print(f"a = {a:.12f}")
print(f"b = {b:.12f}")
print(f"c = {c:.12f}")
print(f"d = {d:.12f}")

# 验证拟合效果
predictions = a * np.array(D)[:, 0] + b * np.array(D)[:, 1] + c * np.prod(np.array(D)[:, :2], axis=1) + d
errors = predictions - np.array(D)[:, 2]

print("\n{'x':>9} {'y':>9} {'z':>9} {'fit':>9} {'error':>9}")
for i in range(len(D)):
    print(f"{D[i][0]:9.3f} {D[i][1]:9.3f} {D[i][2]:9.3f} {predictions[i]:9.3f} {errors[i]:9.3f}")

优势说明

  • 完全适配任意散点:不要求网格结构、等间距或完整采样;
  • 解析解、无迭代:数值稳定,计算高效($ O(N) $ 预处理 + $ O(1) $ 矩阵求解);
  • 可解释性强:直接输出物理/工程意义明确的系数 $ a,b,c,d $;
  • 兼容 SciPy/Scikit-learn 生态:可作为 sklearn.base.BaseEstimator 封装复用。

⚠️ 注意事项

  • 若数据高度共线性(如所有 $ x $ 值几乎相同),矩阵可能接近奇异,建议先做中心化或使用 np.linalg.lstsq(自动处理秩亏);
  • 如需不确定性估计(标准误、置信区间),可进一步计算协方差矩阵 $ \sigma^2 (A^\top A)^{-1} $;
  • 对于更高阶交互(如二次项 $ x^2, y^2 $),只需扩展设计矩阵维度,方法论完全一致。

该方案规避了 LinearNDInterpolator 无法导出系数、sklearn.LinearRegression 需手动构造特征矩阵的繁琐步骤,是科学计算与工程建模中双线性关系建模的简洁、可靠首选。

本文转载于:互联网 如有侵犯,请联系zhengruancom@outlook.com删除。
免责声明:正软商城发布此文仅为传递信息,不代表正软商城认同其观点或证实其描述。

热门关注