linear-regression

    0热度

    1回答

    这是一个益智游戏。我正在计算大型数据集的线性模型,并使用“geom_text_repel”将公式粘贴到图上。 我跑我的脚本成功了很多次,但突然开始收到以下错误: 错误lm.fit(X,Y,偏移=偏移,singular.ok = singular.ok,.. ) :0(非NA)的情况下 这令人生气,因为我没有改变任何东西。我已经详细阅读了这个问题,但还没有找到解决方案。很多人说这是由于在数据集的每一

    3热度

    1回答

    的梯度,我有以下公式: ,我试图在函数中使用计算正则损失函数的梯度。我有dataSet,这是一个[(x(1), t(1)), ..., (x(n), t(n))]的数组,并与训练数据n = 15。 这里是我到目前为止,明知损失函数是vector here. def gradDescent(alpha, t, w, Z): returned = 2 * alpha * w y =

    0热度

    1回答

    我在机器学习线性回归问题的工作在我的火车文件大约是8GB。 虽然我的TP是高配置的,它不支持。因此,我可以将训练文件分成 10/20文件并逐个训练这些文件的模型,而不是将整个文件传递给训练目的。 请问这种方法工作或做我必须培养与整个数据模型在一杆?

    0热度

    1回答

    我正尝试使用graphlab创建线性回归模型。我有200个样本和1个预测器。但是,我遇到了“数字溢出错误”,下面是输出: model_all = graphlab.linear_regression.create(data2.tail(200), target='output', features=['input'],validation_set=None,l2_penalty=0.0002,so

    0热度

    1回答

    我一直在尝试使用插入符号包对模型进行k次折叠验证。我已经运行lm()取得了一些成功,但是当我尝试使用脱字符号进行操作时,它失败了。步骤: train_control <- trainControl(method="cv", number=10) grid <- expand.grid(.fL=c(0), .usekernel=c(FALSE)) model <- train(Fanta

    0热度

    1回答

    我想用MathNet来计算我的数据的加权线性回归。 该文档是here。 我试图找到a x + b = y,使它最适合(x,y,w)的列表,其中w是每个点的权重。 var r = WeightedRegression.Weighted( weightedPoints.Select(p=>new Tuple<double[],double>(new [] { p.LogAvgAmount

    0热度

    1回答

    我已经完成了一个模型,它在可接受的范围内执行。我正在使用python和scitkit-learn。 接下来将模型移至生产。 我可以请求帮助将这些模型转换为生产模式。我怎样才能保存一个训练有素的模型,以便我可以将其移至生产环境。 在此先感谢您的帮助。

    5热度

    1回答

    我需要在Octave/Matlab中实现多元回归系数的置信区间。 该任务是以一种常见的方式定义的:数据Y,设计矩阵X,系数β,使得Y =βX。对于β的代码是后来干脆: beta = pinv(X)*Y 现在,作为一个愚蠢的物理学家,我有点信心和预测区间丢失。公式以及它们的实现。 注意:我知道有一个Matlab函数mvregress,但它仍然从我正在使用的Octave中丢失。 注2:在Cross

    0热度

    1回答

    我是keras的新手。当我实施线性回归时,我遇到了一个纳税损失,这使我非常困惑。我把我的源代码如下: from keras.layers import Dense,Activation from keras.models import Sequential import numpy as np model = Sequential() model.add(Dense(1,input_sha

    0热度

    1回答

    我在JavaScript中使用梯度下降实现了我的第一个(单变量)线性回归。 const LEARNING_RATE = 0.000001; let m = 0; let b = 0; const hypothesis = x => m * x + b; const learn = (alpha) => { if (x.length <= 0) return; l