(转移学习)给定源域DS和学习任务TS,目标域DT和学习任务TT,转移学习旨在使用DS和TS中的知识帮助改进DT中目标预测函数fT(·)的学习, 其中DS!= DT,或TS!= TT。 在上面的定义中,域是一对D = {X,P(X)}。 因此,条件DS!= DT表示XS!= XT或PS(X)!= PT(X)。
3. gPredict: 去中心化的梯度学习框架
为了提高AI算法的性能,我们需要提高精度/召回率,降低MSE。 在本节中,我们提出了一系列减少区块链上AI模型培训周转时间的方法。
Estimator: 只是一个简单的函数来模拟数据样本的一些有意义的特征。 例如, \(\ Y\ =\ g\left(S\right),\ S\ =\ \left(x\left(1\right),,,,x\left(m\right)\right),\) 其中x(i)是从分布中得出的随机变量 D, i.e. \(x\left(i\right)\sim D\).
Estimator Bias 衡量我们的估算器在估算实数方面有多好. \(Bias(Y_{S}, Y) = E_{S_\sim D^m}[Y_{S}] - Y\)
Estimator Variance 衡量我们的估算器对采样的“跳跃”程度. \(Var(Y) = Var_{S\sim D^m}[Y]\). Bias-variance decomposition for estimators: 将这两个属性组合在一个公式中。\(MSE=E[(Y_{S} - Y)^2] = Bias^2(Y_{S},Y) + Var(Y_{S})\) 对S随机变量的期望值。
上述结论的正式数学证明:
\(E[(Y_{S} - Y)^2] = E[Y_{S}^2] + Y^2 - 2E[Y_{S}]Y\)
\(Bias^2(Y_{S},Y) = (E[Y_{S}] - Y)^2\)
\(= E^2[Y_{S}] + Y - 2E[Y_{S}]Y\)
\(Var(Y_{S}) = E[Y_{S}^2]-E^2[Y_{S}]\)
3.a. 训练任务作为交易