活动介绍

机器学习与深度学习:从基础到大规模部署

立即解锁
发布时间: 2025-09-02 00:50:54 阅读量: 2 订阅数: 32 AIGC
# 机器学习与深度学习:从基础到大规模部署 ## 1. 机器学习基础 ### 1.1 训练方法选择 当训练集包含数百万个变量时,可使用随机梯度下降、小批量梯度下降;若训练集能放入内存,也可用普通梯度下降,但不能用正规方程,因为计算时间随变量数量急剧增加。 ### 1.2 特征缩放 若训练集特征尺度差异大,代价函数会呈细长碗状,梯度下降算法收敛慢。解决办法是在训练模型前对所有变量进行归一化。不过,正规方程无需进行尺度变换。若使用正则化模型(如岭回归、Lasso回归、弹性网络),归一化变量更重要,否则可能得到性能较差的解。 ### 1.3 梯度下降特性 - 逻辑回归训练中,梯度下降不会陷入局部最小值,因为代价函数是凸函数。 - 若优化函数是凸函数且学习率不过高,所有梯度下降算法都会接近全局最小值,最终产生相似模型。但如果不逐渐降低学习率,随机梯度下降和小批量梯度下降不会真正收敛,而是围绕全局最小值徘徊。 - 若验证误差在每个周期后持续增加,可能是学习率过高导致算法发散;若训练误差也增加,需降低学习率;若训练误差不增加,模型可能过拟合训练集,需停止训练。 - 由于随机梯度下降和小批量梯度下降的随机性,不能保证每次训练迭代都有进展。因此,若验证误差增加就立即停止训练,可能过早停止。更好的方法是定期保存模型,当模型长时间没有改进时,恢复到保存的最佳模型。 - 随机梯度下降的训练迭代最快,因为它每次只考虑一个训练观测值,能最快接近全局最小值(小批量梯度下降在批量大小很小时也类似)。但只有普通梯度下降能真正收敛,除非逐渐降低学习率,否则随机梯度下降和小批量梯度下降会围绕最小值徘徊。 ### 1.4 模型拟合问题 - 若验证误差远高于训练误差,模型可能过拟合训练集。解决方法包括降低多项式次数、正则化模型(如添加L2或L1惩罚项)、增加训练集大小。 - 若训练误差和验证误差相近且较高,模型可能欠拟合训练集,需尝试降低正则化超参数α。 ### 1.5 正则化模型选择 - 一般来说,有一定正则化的模型比无正则化的模型效果好,所以通常优先选择岭回归而非简单线性回归。 - Lasso回归使用L1惩罚项,倾向于将权重系数降为零,得到稀疏模型,可自动选择变量。若不确定哪些变量重要,优先选择岭回归。 - 弹性网络通常优于Lasso回归,因为Lasso在某些情况下(如多个变量高度相关或变量数多于训练观测值)可能表现不稳定。但弹性网络需要调整额外的超参数。若想要Lasso回归的效果又不希望其不稳定,可使用弹性网络并将l1_ratio设为接近1的值。 ### 1.6 分类问题 若要将照片分类为室外/室内和白天/黑夜,需训练两个逻辑回归分类器。 ## 2. 神经网络基础 ### 2.1 感知机与逻辑回归分类器 经典感知机只有在数据集可线性分离时才会收敛,且无法估计类别概率。相反,逻辑回归分类器即使数据集不可线性分离也能收敛到好的解,并能产生类别概率。若将感知机的激活函数替换为逻辑激活函数(或多神经元时的softmax激活函数),并使用梯度下降(或其他最小化代价函数的优化算法,如交叉熵)进行训练,它就等同于逻辑回归分类器。 ### 2.2 激活函数 常见的激活函数有阶跃函数、逻辑函数(Sigmoid)、双曲正切函数(tanh)和ReLU函数(修正线性单元)。其他例子如ELU和ReLU的变体。 ### 2.3 多层感知机(PMC) 一个包含输入层10个中间神经元、隐藏层50个神经元、输出层3个神经元,且所有神经元使用ReLU激活函数的PMC: - 输入矩阵X的形状是m × 10(m为训练批量大小)。 - 隐藏层权重向量Wh的形状是10 × 50,其常数项向量bh长度为50。 - 输出层权重向量Wo的形状是50 × 3,其常数项向量bo长度为3。 - 网络输出矩阵Y的形状是m × 3。 - 输出公式为Y = ReLU(ReLU(X Wh + bh) Wo + bo)。 ### 2.4 输出层设计 - 对电子邮件进行垃圾邮件/正常邮件分类,神经网络输出层只需一个神经元,可用逻辑激活函数估计概率。 - 处理MNIST数据集,输出层需要10个神经元,用softmax激活函数处理多类别分类。 - 预测房价,输出层需要一个神经元,输出层无需激活函数。 ### 2.5 反向传播 反向传播用于训练人工神经网络。它先计算代价函数相对于模型每个参数(所有权重和常数项)的梯度,然后使用计算出的梯度进行梯度下降步骤。这个反向传播步骤通常会使用大量训练批次进行数千或数百万次,直到模型参数收敛到可能最小化代价函数的值。为计算梯度,反向传播使用反向自动微分。 ### 2.6 PMC超参数调整 基础PMC可调整的超参数包括隐藏层数量、每个隐藏层的神经元数量以及每个隐藏层和输出层使用的激活函数。一般来说,ReLU(或其变体)是隐藏层的默认好选择;对于输出层,逻辑激活函数适用于二分类,softmax激活函数适用于多类别分类,回归则无需激活函数。若PMC过拟合训练数据,可尝试减少隐藏层数量和神经元数量。 ## 3. 深度神经网络训练 ### 3.1 权重初始化 所有权重必须独立采样,不能有相同的初始值。随机采样权重的重要目的是打破对称性,若所有权重初始值相同,反向传播无法解决这个问题,所有神经元的权重将始终相同,相当于每层只有一个神经元,很难收敛到好的解。 ### 3.2 常数项初始化 将常数项初始化为零是合适的,也可像初始化权重一样初始化常数项,差异不大。 ### 3.3 激活函数选择 #### 3.3.1 SELU与ReLU对比 SELU相对于ReLU有以下优点: - 接受负值,任何层神经元的平均输出通常比ReLU更接近零,有助于减少梯度消失问题。 - 导数始终不为零,避免了ReLU可能出现的神经元死亡问题。 - 在特定条件下(如模型是顺序的、权重使用LeCun初始化、输入归一化且无不兼容的层或正则化,如dropout和L1正则化),SELU激活函数能保证模型自动归一化,解决梯度爆炸/消失问题。 #### 3.3.2 不同场景激活函数选择 SELU是默认的好选择。若神经网络需要最快速度,可选择Leaky ReLU的变体。由于简单性,ReLU常受很多人青睐,尽管SELU和Leaky ReLU总体性能更好。tanh在输出层需要生成 -1 到 1 之间的数时有用,但如今在隐藏层使用较少(除了循环神经网络)。逻辑激活函数在输出层估计概率时适用,但在隐藏层很少使用。softmax在输出层用于产生互斥类别的概率,但很少在隐藏层使用。 ### 3.4 优化器参数 使用SGD优化器时,若动量超参数值接近1(如0.99999),算法会加速并可能越过全局最小值,然后来回振荡,收敛时间会比动量值较小时长得多。 ### 3.5 稀疏模型生成 生成稀疏模型(大部分权重为零)的方法有:正常训练模型后将非常小的权重置零;训练时应用L1正则化;使用TF - MOT(TensorFlow模型优化工具包)。 ### 3.6 Dropout影响 Dropout通常会使训练速度减慢约2倍,但对推理没有影响,因为它只在训练时激活。MC Dropout在训练时与Dropout相同,但在推理时仍保持激活,每次推理会稍微减慢,且通常需要执行至少10次推理以获得更好的预测,因此预测速度会减慢10倍或更多。 ## 4. 自定义模型与TensorFlow训练 ### 4.1 TensorFlow概述 TensorFlow是用于数值计算的开源库,特别适合大规模机器学习。它与NumPy基础类似,但支持GPU、分布式计算、计算图分析和优化,有基于反向自动微分的优化API以及多个其他API(如tf.keras、tf.data、tf.image、tf.signal等)。其他流行的深度学习库有PyTorch、MXNet、Microsoft Cognitive Toolkit、Theano、Caffe2和Chainer。 ### 4.2 TensorFlow与NumPy区别 虽然TensorFlow提供了NumPy的大部分功能,但不能直接替代NumPy。原因包括函数名称不同(如tf.reduce_sum()代替np.sum())、部分函数行为不同(如tf.transpose()创建张量的转置副本,而NumPy的T属性创建转置视图,不实际复制数据)、NumPy数组可修改,而TensorFlow张量不可修改(但可使用tf.Variable创建可修改对象)。 ### 4.3 张量数据类型 tf.range(10)和tf.constant(np.arange(10))都返回包含0到9整数的一维张量,但前者使用32位整数,后者使用64位整数。默认情况下,TensorFlow是32位模式,而NumPy是64位模式。 ### 4.4 TensorFlow数据结构 除普通张量外,TensorFlow还提供了多种数据结构,如稀疏张量、张量数组、不规则张量、队列、字符串张量和集合。后两者实际上以普通张量形式表示,但TensorFlow提供了特殊函数进行操作(在tf.strings和tf.sets中)。 ### 4.5 自定义损失函数和指标 - 一般可将自定义损失函数实现为普通Python函数。若损失函数需接受超参数(或其他状态),它必须是keras.losses.Loss的子类,并实现__init__()和call()方法。为将损失函数的超参数与模型一起保存,还需实现get_config()方法。 - 大多数指标可定义为普通Python函数。若自定义指标需支持超参数(或其他状态),它必须继承自keras.metrics.Metric类。若指标在整个周期的计算与所有批次的平均计算不同(如精度和召回率指标),需实现__init__()、update_state()和result()方法来持续管理指标,并实现reset_states()方法(除非只需将所有变量重置为0.0)。为将状态与模型一起保存,需实现get_config()方法。 ### 4.6 模型组件定义 需区分模型的内部组件(即可重用的层或层块)和模型本身(即要训练的对象)。前者应继承自keras.layers.Layer类,后者应是keras.models.Model的子类。 ### 4.7 自定义训练循环 编写自定义训练循环较复杂,应在确实需要时才考虑。Keras提供了多种工具来自定义训练,无需编写自定义循环,如回调、自定义正则化器、自定义约束、自定义损失等。应尽量使用这些工具,因为自定义训练循环开发易出错且代码难以复用。但在某些情况下,如对神经网络不同部分使用不同优化器(如Wide & Deep文章中的情况),或在调试时了解训练具体工作原理,自定义训练循环会很有用。 ### 4.8 Keras组件转换 Keras自定义组件应能转换为TF函数,即应尽量使用TF操作并遵循“TF函数规则”。若必须在自定义组件中包含任意Python代码,可将其放在tf.py_function()操作中(但会降低性能并限制模型可移植性),或在创建自定义层或模型时指定dynamic=True(或在调用模型的compile()方法时指定run_eagerly=True)。 ### 4.9 动态Keras模型 创建动态Keras模型对调试有用,因为自定义组件不会编译为TF函数,可使用任何Python调试器分析代码。若想在模型(或训练代码)中包含任意Python代码,包括调用外部库,动态模型也很有用。要使模型动态,需在创建时指定dynamic=True,也可在调用模型的compile()方法时将run_eagerly设置为True。动态模型下,Keras无法使用TensorFlow的图功能,训练和推理会变慢,且无法导出计算图,模型可移植性受限。 ## 5. 数据加载与预处理 ### 5.1 Data API优势 高效加载和预处理大量数据集是工程挑战,Data API简化了这些操作。它提供了许多功能,包括从不同源(如文本或二进制文件)加载数据、从多个源并行读取数据、进行数据转换、交错记录、打乱数据、批量处理和预读取。 ### 5.2 数据集分割 将大量数据集分割成多个文件有诸多好处:可在粗粒度上打乱数据,再用缓冲区在更细粒度上打乱;能处理太大而无法放在一台机器上的数据集;更易于操作大量小文件,如将数据分解为多个子集;若数据分布在多个服务器的多个文件中,可同时从不同服务器下载多个文件,提高带宽利用率。 ### 5.3 数据处理瓶颈解决 可使用TensorBoard可视化性能分析数据,若GPU未充分利用,输入管道可能是瓶颈。解决方法包括让数据在多个线程中并行读取和预处理,并预读取一些批次。若仍无法在训练时充分利用GPU,需确保预处理代码已优化,可尝试将数据集保存为多个TFRecord文件,必要时提前进行部分预处理(TF Transform可提供帮助)。若有必要,可使用计算能力更强、内存更大
corwn 最低0.47元/天 解锁专栏
赠100次下载
继续阅读 点击查看下一篇
profit 400次 会员资源下载次数
profit 300万+ 优质博客文章
profit 1000万+ 优质下载资源
profit 1000万+ 优质文库回答
复制全文

相关推荐

张_伟_杰

人工智能专家
人工智能和大数据领域有超过10年的工作经验,拥有深厚的技术功底,曾先后就职于多家知名科技公司。职业生涯中,曾担任人工智能工程师和数据科学家,负责开发和优化各种人工智能和大数据应用。在人工智能算法和技术,包括机器学习、深度学习、自然语言处理等领域有一定的研究
最低0.47元/天 解锁专栏
赠100次下载
百万级 高质量VIP文章无限畅学
千万级 优质资源任意下载
千万级 优质文库回答免费看
立即解锁

专栏目录

最新推荐

数据在不同部门的应用与挑战及后续提升建议

### 数据在不同部门的应用与挑战及后续提升建议 在当今数字化时代,数据在各个部门的运营中扮演着至关重要的角色。下面我们将深入探讨数据在营销、销售和信息技术部门的应用情况,以及如何提升数据沟通技能。 #### 数据在营销部门的应用与挑战 在营销领域,数据的影响力无处不在。以Prep Air为例,数字营销主管Alex指出,数字营销的兴起带来了海量数据,彻底改变了整个营销领域。过去,营销研究主要依赖焦点小组和调查,一次只能针对一个个体。如今,除了这些传统方法,还可以收集和跟踪社交媒体参与度、网站流量等多方面的数据。 数据来源广泛,包括人口普查记录、谷歌分析的网站流量报告以及Facebook、

数据可视化:静态与交互式的优劣及团队模式分析

# 数据可视化:静态与交互式的优劣及团队模式分析 ## 1. 幻灯片与数据可视化 在数据沟通中,幻灯片是一种常用且有效的方式。能通过幻灯片清晰沟通是一项重要技能,无论是使用PowerPoint还是Google Slides,掌握设计工具都需大量时间和实践。 幻灯片之所以是有效的沟通方式,是因为其具备与数据可视化相同的有效元素: - **简化信息**:幻灯片应尽量少用文字,需将关键概念浓缩成简单要点。 - **清晰标题**:如同数据可视化,幻灯片标题应明确所回答的问题或表达的观点,让观众能轻松理解展示内容。 - **视觉线索**:图像、字体、颜色和主题等都能为幻灯片内的信息提供视觉线索。

利用GARCH模型变体进行股票市场预测中的情感分析实现

### 利用GARCH模型变体进行股票市场预测中的情感分析实现 在金融领域,股票市场预测一直是一个备受关注的话题。由于金融数据具有高波动性和异方差性(即方差随时间变化),传统的时间序列分析方法往往难以准确建模。广义自回归条件异方差(GARCH)模型因其能够有效处理异方差问题而成为时间序列预测中的常用工具。同时,社交媒体数据和金融新闻也对股票价格预测产生着重要影响,情感分析技术可以从中提取有用信息,帮助我们更好地理解市场行为。本文将详细介绍如何运用情感分析和GARCH模型变体对苹果公司的股票数据进行预测。 #### 1. 研究背景 GARCH模型由Bollerslev于1986年提出,此后被

软件定义网络的数据可视化与负载均衡实验

### 软件定义网络的数据可视化与负载均衡实验 在当今的网络环境中,软件定义网络(SDN)的应用越来越广泛。本文将详细介绍一个关于软件定义网络的数据可视化与负载均衡的实验,包括实验步骤、遇到的问题及解决方法,以及如何生成相关的分析图表。 #### 1. 流量生成与结果过滤 在实验中,我们首先需要生成流量并记录相关事件。以下是具体的操作步骤: - **定义服务器与客户端**: - 停止Host - 3服务器,在h8控制台输入命令 `iperf -s -p 6653 -i 1 > result - H8`,将IP地址为10.0.0.8的Host - 8定义为服务器,“result -

打造与分享Excel仪表盘:设计、保护与部署全攻略

# 打造与分享 Excel 仪表盘:设计、保护与部署全攻略 在数据可视化的领域中,Excel 仪表盘是一种强大的工具,它能够将复杂的数据以直观的方式呈现给用户。本文将详细介绍如何设计一个美观且实用的 Excel 仪表盘,以及如何保护和分享它。 ## 1. 仪表盘设计优化 ### 1.1 突出关键数据 为了让用户更聚焦于仪表盘的关键数据点或特定部分,可以使用加粗字体进行突出显示。具体操作如下: - 仔细审视仪表盘,找出那些需要强调特定信息或数据点的区域。 - 在后续步骤中,再添加标题和标签。 ### 1.2 优化文本框格式 为了让用户更轻松地识别关键数字,可以对文本框进行如下格式优化: 1

基于文本的关系提取与知识图谱构建

### 基于文本的关系提取与知识图谱构建 #### 1. 引言 在分析公司网络时,共现图能为我们提供一些有趣的见解,但它无法告知我们关系的具体类型。例如,在某些子图中,我们能看到公司之间存在关联,但具体是什么样的关系却并不清楚。为了解决这个问题,我们需要进行关系提取,从而构建知识图谱,以更清晰地展示公司之间的关系。 #### 2. 关系提取的重要性 有时候,最有趣的关系往往不是频繁出现的那些。比如,即将到来的合并的首次公告,或者过去曾被提及几次但随后被遗忘的惊人关系。以前不相关的实体突然同时出现,可能是开始对该关系进行深入分析的信号。 #### 3. 基于短语匹配的关系提取蓝图 - **

Rasa开发:交互式学习、调试、优化与社区生态

### Rasa开发:交互式学习、调试、优化与社区生态 #### 1. 交互式学习中的数据保存与退出 在交互式学习的每一轮中,都需要确认自然语言理解(NLU)分析结果以及多个动作预测结果。若对为何有多个动作存在疑惑,可参考相关原理内容。当我们完成与聊天机器人的交互学习后,需要手动保存反馈数据。具体操作步骤如下: - 按下 `Ctrl + C`,会出现如下选项: - `Continue`:继续当前的交互式学习。 - `Undo Last`:撤销上一步操作。 - `Fork`:分叉当前对话流程。 - `Start Fresh`:重新开始。 - `Export & Quit`:

数据可视化:工具与Python库的综合指南

# 数据可视化:工具与Python库的综合指南 ## 一、数据可视化的基础技巧 ### (一)创建对比 在展示数据时,应尽可能多地进行对比。当同时展示两个关于同一参数在不同时期的图表或图示时,能清晰地解释数据的影响,并突出趋势、高低点、优势和劣势,便于大家理解和思考。例如,对比2019年第一季度和2020年第一季度的销售折线图。 ### (二)讲述数据故事 以可视化方式呈现数据如同讲故事,能向受众传达目标或信息,提高参与度,让人们轻松理解数据。科学研究表明,人类更喜欢听故事,对讲述得当的故事反应更好。通过可视化来讲述故事,不仅能更好地传达信息,还能在展示中脱颖而出。可以通过整理信息,借鉴作

数据科学家绩效评估方法解析

### 数据科学家绩效评估方法解析 在数据科学领域,衡量数据科学家的绩效是一项具有挑战性的任务。虽然数据科学本身强调测量和指标跟踪,但为数据科学家的工作价值赋予一个确切的数字并非易事。下面将详细探讨几种评估数据科学家绩效的方法。 #### 1. 工作时间评估 工作时间是最直接的绩效衡量方式。比如,早上9点上班,晚上9点下班,减去午休时间,就是一天的工作时长。对于那些具有固定或相对稳定价值产出率的工作,工作时间是一个可行的绩效指标,就像在日本街头,拿着道路施工标志站岗的人员,他们投入的工作时长能准确反映其工作绩效。 然而,对于需要解决复杂问题的工作,工作时间和实际工作投入是两个不同的概念。

数据分析与分层模型解读

### 数据分析与分层模型解读 在数据分析中,我们常常会用到各种模型来解读数据背后的规律。这里主要探讨分层模型的相关内容,包括如何分析数据、模型的构建与评估,以及结果的呈现与解读。 #### 1. R² 值的计算 在分析数据时,我们可能会注意到不同模型的 R² 值情况。例如,对于某些模型的输出,能直接看到 R² 值,而对于分层模型,需要额外的操作来获取。以分层模型 `fit_lmer1` 为例,若要计算其 R² 值,可按以下步骤操作: 1. 安装并加载 `MuMIn` 包。 2. 运行 `r.squaredGLMM(fit_lmer1)` 函数。 运行该函数后,会得到两个 R² 值: -