通过优化 MATLAB/Python 中的多个变量来减少两个图之间的差异?
Reducing difference between two graphs by optimizing more than one variable in MATLAB/Python?
假设 'h' 是 x、y、z 和 t 的函数,它给了我们一条图形线 (t,h)(模拟)。同时我们也有观察图(h对t的观察值)。如何通过优化 x、y 和 z 的值来减少观察到的 (t,h) 和模拟的 (t,h) 图之间的差异?我想更改模拟图,使其模仿得越来越接近 MATLAB/Python 中的观察图。在文献中我读到人们用 Lavenberg-marquardt 算法做了同样的事情但不知道怎么做?
您实际上是在尝试拟合参数化函数 h(x,y,z;t)
的参数 x,y,z
。
MATLAB
你说得对,在 MATLAB 中你应该使用曲线拟合工具箱的 lsqcurvefit
of the Optimization toolbox, or fit
(我更喜欢后者)。
正在查看 lsqcurvefit
的文档:
x = lsqcurvefit(fun,x0,xdata,ydata);
它在文档中说你有一个模型 F(x,xdata)
,其系数 x
和样本点 xdata
,以及一组测量值 ydata
。函数 return 是最小二乘参数集 x
,您的函数与测量值最接近。
拟合算法通常需要起点,一些实现可以随机选择,在lsqcurvefit
的情况下,这就是x0
的目的。如果你有
h = @(x,y,z,t) ... %// actual function here
t_meas = ... %// actual measured times here
h_meas = ... %// actual measured data here
然后在 lsqcurvefit
、
的约定中
fun <--> @(params,t) h(params(1),params(2),params(3),t)
x0 <--> starting guess for [x,y,z]: [x0,y0,z0]
xdata <--> t_meas
ydata <--> h_meas
你的函数 h(x,y,z,t)
应该在 t
中向量化,这样对于 t
中的向量输入,return 值与 t
的大小相同.然后调用 lsqcurvefit
将为您提供最佳参数集:
x = lsqcurvefit(@(params,t) h(params(1),params(2),params(3),t),[x0,y0,z0],t_meas,h_meas);
h_fit = h(x(1),x(2),x(3),t_meas); %// best guess from curve fitting
Python
在 python 中,您必须使用 scipy.optimize
模块,尤其是 scipy.optimize.curve_fit
之类的模块。根据上述约定,您需要遵循以下原则:
import scipy.optimize as opt
popt,pcov = opt.curve_fit(lambda t,x,y,z: h(x,y,z,t), t_meas, y_meas, p0=[x0,y0,z0])
请注意,p0
起始数组是可选的,但如果缺少,所有参数都将设置为 1。您需要的结果是 popt
数组,其中包含 [x,y,z]
:
的最佳值
x,y,z = popt
h_fit = h(x,y,z,t_meas)
假设 'h' 是 x、y、z 和 t 的函数,它给了我们一条图形线 (t,h)(模拟)。同时我们也有观察图(h对t的观察值)。如何通过优化 x、y 和 z 的值来减少观察到的 (t,h) 和模拟的 (t,h) 图之间的差异?我想更改模拟图,使其模仿得越来越接近 MATLAB/Python 中的观察图。在文献中我读到人们用 Lavenberg-marquardt 算法做了同样的事情但不知道怎么做?
您实际上是在尝试拟合参数化函数 h(x,y,z;t)
的参数 x,y,z
。
MATLAB
你说得对,在 MATLAB 中你应该使用曲线拟合工具箱的 lsqcurvefit
of the Optimization toolbox, or fit
(我更喜欢后者)。
正在查看 lsqcurvefit
的文档:
x = lsqcurvefit(fun,x0,xdata,ydata);
它在文档中说你有一个模型 F(x,xdata)
,其系数 x
和样本点 xdata
,以及一组测量值 ydata
。函数 return 是最小二乘参数集 x
,您的函数与测量值最接近。
拟合算法通常需要起点,一些实现可以随机选择,在lsqcurvefit
的情况下,这就是x0
的目的。如果你有
h = @(x,y,z,t) ... %// actual function here
t_meas = ... %// actual measured times here
h_meas = ... %// actual measured data here
然后在 lsqcurvefit
、
fun <--> @(params,t) h(params(1),params(2),params(3),t)
x0 <--> starting guess for [x,y,z]: [x0,y0,z0]
xdata <--> t_meas
ydata <--> h_meas
你的函数 h(x,y,z,t)
应该在 t
中向量化,这样对于 t
中的向量输入,return 值与 t
的大小相同.然后调用 lsqcurvefit
将为您提供最佳参数集:
x = lsqcurvefit(@(params,t) h(params(1),params(2),params(3),t),[x0,y0,z0],t_meas,h_meas);
h_fit = h(x(1),x(2),x(3),t_meas); %// best guess from curve fitting
Python
在 python 中,您必须使用 scipy.optimize
模块,尤其是 scipy.optimize.curve_fit
之类的模块。根据上述约定,您需要遵循以下原则:
import scipy.optimize as opt
popt,pcov = opt.curve_fit(lambda t,x,y,z: h(x,y,z,t), t_meas, y_meas, p0=[x0,y0,z0])
请注意,p0
起始数组是可选的,但如果缺少,所有参数都将设置为 1。您需要的结果是 popt
数组,其中包含 [x,y,z]
:
x,y,z = popt
h_fit = h(x,y,z,t_meas)