商城首页欢迎来到中国正版软件门户

您的位置:首页 >C++机器学习入门:线性回归代码示例

C++机器学习入门:线性回归代码示例

  发布于2025-08-31 阅读(0)

扫一扫,手机访问

首先实现线性回归模型,通过梯度下降最小化均方误差,代码包含数据准备、训练和预测,最终参数接近真实关系,适用于高性能场景。

C++机器学习入门 线性回归实现示例

想用C++实现线性回归,其实并不复杂。虽然Python在机器学习领域更常见,但C++凭借其高性能,在对效率要求高的场景中非常适用。下面是一个简单的线性回归实现示例,帮助你入门C++机器学习。

线性回归基本原理

线性回归的目标是找到一条直线 y = wx + b,使得预测值与真实值之间的误差最小。我们使用均方误差(MSE)作为损失函数,并通过梯度下降法更新参数 w 和 b。

代码实现步骤

下面是一个完整的C++线性回归实现,包含数据准备、模型训练和预测。

#include <iostream>
#include <vector>
#include <cmath>

class LinearRegression { private: double w, b; // 权重和偏置 double learning_rate; // 学习率 int iterations; // 迭代次数

public: LinearRegression(double lr = 0.01, int iter = 1000) : w(0.0), b(0.0), learning_rate(lr), iterations(iter) {}

// 前向传播:计算预测值
std::vector&lt;double&gt; predict(const std::vector&lt;double&gt;& w) {
    std::vector&lt;double&gt; pred;
    for (double x : w) {
        pred.push_back(w * x + b);
    }
    return pred;
}

// 计算均方误差
double compute_cost(const std::vector&lt;double&gt;& X, const std::vector&lt;double&gt;& y) {
    int m = X.size();
    double cost = 0.0;
    for (int i = 0; i &lt; m; ++i) {
        double pred = w * X[i] + b;
        cost += (pred - y[i]) * (pred - y[i]);
    }
    return cost / (2 * m);
}

// 训练模型
void fit(const std::vector&lt;double&gt;& X, const std::vector&lt;double&gt;& y) {
    int m = X.size();

    for (int iter = 0; iter &lt; iterations; ++iter) {
        double dw = 0.0, db = 0.0;

        // 计算梯度
        for (int i = 0; i &lt; m; ++i) {
            double pred = w * X[i] + b;
            dw += (pred - y[i]) * X[i];
            db += (pred - y[i]);
        }

        dw /= m;
        db /= m;

        // 更新参数
        w -= learning_rate * dw;
        b -= learning_rate * db;

        // 每100次输出一次损失
        if (iter % 100 == 0) {
            double cost = compute_cost(X, y);
            std::cout &lt;&lt; "Iteration " &lt;&lt; iter &lt;&lt; ", Cost: " &lt;&lt; cost
                      &lt;&lt; ", w: " &lt;&lt; w &lt;&lt; ", b: " &lt;&lt; b &lt;&lt; std::endl;
        }
    }
}

// 预测单个值
double predict(double x) {
    return w * x + b;
}

// 获取模型参数
void get_params(double&amp; weight, double&amp; bias) {
    weight = w;
    bias = b;
}

};

使用示例

下面是一个简单的测试用例,模拟一组线性数据并训练模型。

int main() {
    // 模拟数据:y = 2x + 1 + 噪声
    std::vector<double> X = {1, 2, 3, 4, 5};
    std::vector<double> y = {3.1, 5.0, 7.1, 8.9, 11.0};  // 接近 2x+1
LinearRegression model(0.01, 1000);
model.fit(X, y);

double w, b;
model.get_params(w, b);
std::cout &lt;&lt; "\n最终模型: y = " &lt;&lt; w &lt;&lt; "x + " &lt;&lt; b &lt;&lt; std::endl;

// 预测
double x_test = 6;
std::cout &lt;&lt; "预测 x=6 时,y = " &lt;&lt; model.predict(x_test) &lt;&lt; std::endl;

return 0;

}

运行结果会显示损失逐渐下降,最终参数接近 w=2, b=1,说明模型学习到了正确的线性关系。

小结与扩展建议

这个例子展示了如何从零实现一个线性回归模型。你可以在此基础上进行扩展:

  • 加入数据归一化提升训练稳定性
  • 支持多特征输入(多元线性回归)
  • 使用Eigen等数学库优化矩阵运算
  • 封装为模板类支持不同数据类型

基本上就这些。C++实现虽然代码比Python多,但更贴近底层,适合嵌入式或高性能场景。掌握这个基础后,可以进一步尝试逻辑回归、神经网络等模型。不复杂但容易忽略细节,比如学习率设置和梯度计算的准确性。

本文转载于:互联网 如有侵犯,请联系zhengruancom@outlook.com删除。
免责声明:正软商城发布此文仅为传递信息,不代表正软商城认同其观点或证实其描述。

热门关注