资讯

精准传达 • 有效沟通

从品牌网站建设到网络营销策划,从策略到执行的一站式服务

梳理数百个问题后,我总结出10个数据科学面试必掌握概念……

这篇文章主要介绍“梳理数百个问题后,我总结出10个数据科学面试必掌握概念……”,在日常操作中,相信很多人在梳理数百个问题后,我总结出10个数据科学面试必掌握概念……问题上存在疑惑,小编查阅了各式资料,整理出简单好用的操作方法,希望对大家解答”梳理数百个问题后,我总结出10个数据科学面试必掌握概念……”的疑惑有所帮助!接下来,请跟着小编一起来学习吧!

创新互联建站主营建安网站建设的网络公司,主营网站建设方案,重庆APP软件开发,建安h5成都小程序开发搭建,建安网站营销推广欢迎建安等地区企业咨询

1.激活函数(Activation Functions)

对神经元或节点有基本了解之后,你就会发现激活函数像电灯开关一样,能够决定是否激活神经元。

梳理数百个问题后,我总结出10个数据科学面试必掌握概念……

激活函数有几种类型,但是最流行的激活函数是整流线性单元函数,也称为ReLU函数。ReLU函数优于S型函数和双曲正切函数函数,因为它执行梯度下降的速度更快。

请注意,在图像中,当x(或z)很大时,斜率非常小,这会显著减缓梯度下降,但这种情况不会出现在ReLU函数中。

2.代价函数(Cost Function)

神经网络的代价函数类似于其他机器学习模型的成本函数。它衡量的是神经网络的预测值与实际值相比有多“好”。代价函数与模型的质量成反比——模型质量越高,代价函数越低,反之亦然。

代价函数是最优化值。通过缩小神经网络的代价函数,可以获得模型的最佳权重和参数,从而最大程度地发挥模型的性能。

有几种常用的代价函数,包括二次方代价(quadratic cost)、交叉熵成本(cross-entropy cost)、指数成本(exponential  cost)、Hellinger distance、Kullback-Leibler散度等。

3.反向传播算法(Backpropagation)

反向传播算法是一种与成本函数密切相关的算法。具体来说,它是一种用于计算成本函数梯度的算法。与其他算法相比,反向传播速度快、效率高,因而备受欢迎。

在这个算法中,梯度的计算从权重的最后一层的梯度开始,然后反向传播到权重的第一层梯度。因此,第k层的误差取决于k + 1层。“反向传播”也因此得名。

通常,反向传播的工作原理如下:

  • 计算每个输入-输出对正向阶段的损失函数

  • 计算每对反向阶段的损失函数

  • 结合各个权重的梯度值

  • 根据学习率和总梯度更新权重

4.卷积神经网络(Convolutional Neural Networks)

梳理数百个问题后,我总结出10个数据科学面试必掌握概念……

卷积神经网络(CNN)是一种神经网络,它提取输入信息(通常是图像),按照重要程度将图像的不同特征进行分类,然后输出预测。CNN优于前馈神经网络的原因在于,它可以更好地捕获整个图像的空间(像素)依赖性,这意味着它可以更好地理解图像的组成。

CNN使用一种称为“卷积”的数学运算。维基百科这样定义卷积:对两个函数的数学运算产生了第三个函数,该函数表示一个函数的形状如何被另一个函数修改。因此,CNN在其至少一层中使用卷积代替通用矩阵乘法。

5.循环神经网络(Recurrent Neural Networks)

梳理数百个问题后,我总结出10个数据科学面试必掌握概念……

循环神经网络(RNN)是另一种神经网络,能够摄取各种大小的输入信息,因此可与序列数据配合使用,效果极佳。RNN既考虑当前输入也考虑先前给定的输入,这意味着相同的输入在技术上可以基于先前的给定输入产生不同的输出。

从技术上讲,RNN是一种神经网络,其中节点之间的连接沿时间序列形成有向图,从而使它们可以使用其内部存储器来处理可变长度的输入序列。

6.长短期记忆网络(Long Short-Term Memory Networks)

长短期记忆网络(LSTM)是一种递归神经网络,可弥补常规RNN的一大劣势:短期记忆。

具体来说,如果序列太长,即滞后时间大于5-10个步长,则RNN倾向于忽略先前步骤中提供的信息。例如,如果我们将一个段落输入RNN,则它可能会忽略该段落开头提供的信息。为了解决这个问题,LSTM诞生了。

7.权重初始化(Weight Initialization)

权重初始化的要点是保证神经网络不会收敛到无效解。如果权重全部初始化为相同的值(例如零),则每个单元将获得完全相同的信号,并且每一层的输出都是一样的。

因此,你要随机初始化权重,使其接近零,但不等于零。用于训练模型的随机优化算法就要达到这样效果。

8.批量梯度下降和随机梯度下降(Batch vs. Stochastic Gradient Descent)

批量梯度下降和随机梯度下降是用于计算梯度的两种不同方法。

批量梯度下降仅使用整个数据集计算梯度。特别是对于较大的数据集,它要慢得多,但对于凸或平滑误差流形来说效果更好。

在随机梯度下降的情况下,一次使用单个训练样本来计算梯度。因此,它的计算速度更快且成本更低。然而,在这种情况下达到全局最优值时,它趋向于反弹。这会产生好的解决方案,但不是最优解决方案。

9.超参数(Hyper-parameters)

超参数既是调节网络结构的变量,也是控制网络训练方式的变量。常见的超参数包括:

  • 模型架构参数,例如层数,隐藏单元数等…

  • 学习率(alpha)

  • 网络权重初始化

  • 时期数(定义为整个训练数据集中的一个周期)

  • 批量

  • 其他

10.学习率(Learning Rate)

学习率是神经网络中使用的超参数,每次更新模型权重时,神经网络都会控制该模型响应估计的误差调整模型的数量。

如果学习率太低,则模型训练将进行得非常缓慢,因为每次迭代中对权重进行的更新最少。因此,在达到最低点之前需要进行多次更新。如果将学习率设置得太高,则由于权重的急剧更新,会对损失函数造成不良的发散行为,并且可能无法收敛。

到此,关于“梳理数百个问题后,我总结出10个数据科学面试必掌握概念……”的学习就结束了,希望能够解决大家的疑惑。理论与实践的搭配能更好的帮助大家学习,快去试试吧!若想继续学习更多相关知识,请继续关注创新互联网站,小编会继续努力为大家带来更多实用的文章!


当前文章:梳理数百个问题后,我总结出10个数据科学面试必掌握概念……
文章位置:http://www.cdkjz.cn/article/pjcgch.html
多年建站经验

多一份参考,总有益处

联系快上网,免费获得专属《策划方案》及报价

咨询相关问题或预约面谈,可以通过以下方式与我们联系

大客户专线   成都:13518219792   座机:028-86922220