通过优化 MATLAB/Python 中的多个变量来减少两个图之间的差异?

Reducing difference between two graphs by optimizing more than one variable in MATLAB/Python?

假设 'h' 是 x、y、z 和 t 的函数,它给了我们一条图形线 (t,h)(模拟)。同时我们也有观察图(h对t的观察值)。如何通过优化 x、y 和 z 的值来减少观察到的 (t,h) 和模拟的 (t,h) 图之间的差异?我想更改模拟图,使其模仿得越来越接近 MATLAB/Python 中的观察图。在文献中我读到人们用 Lavenberg-marquardt 算法做了同样的事情但不知道怎么做?

您实际上是在尝试拟合参数化函数 h(x,y,z;t) 的参数 x,y,z

MATLAB

你说得对,在 MATLAB 中你应该使用曲线拟合工具箱的 lsqcurvefit of the Optimization toolbox, or fit(我更喜欢后者)。

正在查看 lsqcurvefit 的文档:

x = lsqcurvefit(fun,x0,xdata,ydata);

它在文档中说你有一个模型 F(x,xdata),其系数 x 和样本点 xdata,以及一组测量值 ydata。函数 return 是最小二乘参数集 x,您的函数与测量值最接近。

拟合算法通常需要起点,一些实现可以随机选择,在lsqcurvefit的情况下,这就是x0的目的。如果你有

h = @(x,y,z,t) ... %// actual function here
t_meas = ... %// actual measured times here
h_meas = ... %// actual measured data here

然后在 lsqcurvefit

的约定中
fun   <--> @(params,t) h(params(1),params(2),params(3),t)
x0    <--> starting guess for [x,y,z]: [x0,y0,z0]
xdata <--> t_meas
ydata <--> h_meas

你的函数 h(x,y,z,t) 应该在 t 中向量化,这样对于 t 中的向量输入,return 值与 t 的大小相同.然后调用 lsqcurvefit 将为您提供最佳参数集:

x = lsqcurvefit(@(params,t) h(params(1),params(2),params(3),t),[x0,y0,z0],t_meas,h_meas);
h_fit = h(x(1),x(2),x(3),t_meas);  %// best guess from curve fitting

Python

在 python 中,您必须使用 scipy.optimize 模块,尤其是 scipy.optimize.curve_fit 之类的模块。根据上述约定,您需要遵循以下原则:

import scipy.optimize as opt

popt,pcov = opt.curve_fit(lambda t,x,y,z: h(x,y,z,t), t_meas, y_meas, p0=[x0,y0,z0])

请注意,p0 起始数组是可选的,但如果缺少,所有参数都将设置为 1。您需要的结果是 popt 数组,其中包含 [x,y,z]:

的最佳值
x,y,z = popt
h_fit = h(x,y,z,t_meas)