您的位置:首页 >C++机器学习入门:线性回归代码示例
发布于2025-08-31 阅读(0)
扫一扫,手机访问
首先实现线性回归模型,通过梯度下降最小化均方误差,代码包含数据准备、训练和预测,最终参数接近真实关系,适用于高性能场景。

想用C++实现线性回归,其实并不复杂。虽然Python在机器学习领域更常见,但C++凭借其高性能,在对效率要求高的场景中非常适用。下面是一个简单的线性回归实现示例,帮助你入门C++机器学习。
线性回归的目标是找到一条直线 y = wx + b,使得预测值与真实值之间的误差最小。我们使用均方误差(MSE)作为损失函数,并通过梯度下降法更新参数 w 和 b。
下面是一个完整的C++线性回归实现,包含数据准备、模型训练和预测。
#include <iostream> #include <vector> #include <cmath>class LinearRegression { private: double w, b; // 权重和偏置 double learning_rate; // 学习率 int iterations; // 迭代次数
public: LinearRegression(double lr = 0.01, int iter = 1000) : w(0.0), b(0.0), learning_rate(lr), iterations(iter) {}
// 前向传播:计算预测值 std::vector<double> predict(const std::vector<double>& w) { std::vector<double> pred; for (double x : w) { pred.push_back(w * x + b); } return pred; } // 计算均方误差 double compute_cost(const std::vector<double>& X, const std::vector<double>& y) { int m = X.size(); double cost = 0.0; for (int i = 0; i < m; ++i) { double pred = w * X[i] + b; cost += (pred - y[i]) * (pred - y[i]); } return cost / (2 * m); } // 训练模型 void fit(const std::vector<double>& X, const std::vector<double>& y) { int m = X.size(); for (int iter = 0; iter < iterations; ++iter) { double dw = 0.0, db = 0.0; // 计算梯度 for (int i = 0; i < m; ++i) { double pred = w * X[i] + b; dw += (pred - y[i]) * X[i]; db += (pred - y[i]); } dw /= m; db /= m; // 更新参数 w -= learning_rate * dw; b -= learning_rate * db; // 每100次输出一次损失 if (iter % 100 == 0) { double cost = compute_cost(X, y); std::cout << "Iteration " << iter << ", Cost: " << cost << ", w: " << w << ", b: " << b << std::endl; } } } // 预测单个值 double predict(double x) { return w * x + b; } // 获取模型参数 void get_params(double& weight, double& bias) { weight = w; bias = b; }};
下面是一个简单的测试用例,模拟一组线性数据并训练模型。
int main() {
// 模拟数据:y = 2x + 1 + 噪声
std::vector<double> X = {1, 2, 3, 4, 5};
std::vector<double> y = {3.1, 5.0, 7.1, 8.9, 11.0}; // 接近 2x+1
LinearRegression model(0.01, 1000);
model.fit(X, y);
double w, b;
model.get_params(w, b);
std::cout << "\n最终模型: y = " << w << "x + " << b << std::endl;
// 预测
double x_test = 6;
std::cout << "预测 x=6 时,y = " << model.predict(x_test) << std::endl;
return 0;
}
运行结果会显示损失逐渐下降,最终参数接近 w=2, b=1,说明模型学习到了正确的线性关系。
这个例子展示了如何从零实现一个线性回归模型。你可以在此基础上进行扩展:
基本上就这些。C++实现虽然代码比Python多,但更贴近底层,适合嵌入式或高性能场景。掌握这个基础后,可以进一步尝试逻辑回归、神经网络等模型。不复杂但容易忽略细节,比如学习率设置和梯度计算的准确性。
下一篇:关闭墨迹天气蓝牙权限方法
售后无忧
立即购买>office旗舰店
售后无忧
立即购买>office旗舰店
售后无忧
立即购买>office旗舰店
售后无忧
立即购买>office旗舰店
正版软件
正版软件
正版软件
正版软件
正版软件
1
2
3
7
9