Python

  • 0
  • contact@jiqixuexishequ.com

此处没有详情描述。请查看文章列表。

Python概要

如何在Python中从头开始实现线性回归

如何在Python中从头开始实现线性回归

2020-07-27 机器学习

许多机器学习算法的核心是优化。 机器学习算法使用优化算法来找到给定训练数据集的一组良好的模型参数。 机器学习中最常用的优化算法是随机梯度下降。 在本教程中,你将了解如何使用Python从头开始实现随机梯度下降来优化线性回归算法。 完成本教程后,你将了解: [......]

了解详情

了解学习率对神经网络性能的影响

了解学习率对神经网络性能的影响

2020-07-22 机器学习

深度学习神经网络采用随机梯度下降优化算法进行训练。 学习率是控制每次更新模型权重时响应于估计误差而改变模型多少的超参数。选择学习率很有挑战性,因为太小的值可能会导致较长的训练过程,可能会卡住,而太大的值可能会导致学习次优的权重集太快或训练过程不稳定。 在配置神经网络时,学习率可能是最重要 [......]

了解详情

如何避免深度学习神经网络中的过拟合

如何避免深度学习神经网络中的过拟合

2020-07-06 机器学习

训练一个对新数据具有很好泛化能力的深度神经网络是一个具有挑战性的问题。 容量太小的模型不能学习问题,而容量太大的模型可能学习得太好,并超过训练数据集。这两种情况都会导致模型不能很好地推广。 减少泛化误差的现代方法是使用较大的模型,该较大的模型可能需要在训练期间使用保持模型权重较小的正则化 [......]

了解详情

深度学习神经网络训练中学习速率的配置

深度学习神经网络训练中学习速率的配置

2020-07-02 机器学习

神经网络的权重不能用解析法计算。取而代之的是,必须通过称为随机梯度下降的经验优化过程来发现权重。 随机梯度下降法解决神经网络的优化问题具有挑战性,解的空间(权值集)可能由许多好解(称为全局最优解)以及容易找到但技能较低的解(称为局部最优解)组成。 在此搜索过程的每个步骤中对模型的变化量, [......]

了解详情

如何在Keras中从头开始开发VGG、Inception和ResNet模块

如何在Keras中从头开始开发VGG、Inception和ResNet模块

2020-07-01 机器学习

里程碑模型中有一些离散的体系结构元素,你可以在设计自己的卷积神经网络时使用它们。 具体地说,在图像分类等任务中实现最先进结果的模型使用重复多次的离散体系结构元素,例如VGG模型中的VGG块、GoogLeNet中的初始模块和ResNet中的残差模块。 一旦你能够实现这些架构元素的参数化版本 [......]

了解详情

Keras API参考:损失

Keras API参考:损失

2020-06-30 机器学习

损失函数的目的是计算模型在训练期间应寻求最小化的量。 可用损失 请注意,所有损失都可以通过类句柄和函数句柄获得。类句柄使您能够将配置参数传递给构造函数(例如loss_fn = CategoricalCrossentropy(from_logits=True)),当以独立方式使用时,它们默认执行缩减(请参见下面的详细信息)。 概率损失 BinaryCrossentropy class CategoricalCrossentropy class SparseCategoricalCrossentropy class Poisson class binary_crossentropy function categorical_crossentropy function sparse_categorical_crossentropy function poisson function KLDivergence class kl_divergence function 回归损失 MeanSquaredError class MeanAbsoluteError class MeanAbsolutePercentageError class MeanSquaredLogarithmicError class CosineSimilarity class mean_squared_error function mean_absolute_error function mean_absolute_percentage_error function mean_squared_logarithmic_error function cosine_similarity function Huber class huber function LogCosh class [......]

了解详情

机器学习中的交叉熵介绍

机器学习中的交叉熵介绍

2020-06-29 机器学习

交叉熵是机器学习中常用的损失函数。 交叉熵是信息论领域的一种度量,建立在熵的基础上,通常计算两个概率分布之间的差异。它与计算两个概率分布之间的相对熵的KL散度密切相关,但又不同于KL散度,而可以认为交叉熵计算的是分布之间的总熵。 交叉熵也与逻辑损失相关,并经常与之混淆,称为原木损失。虽然 [......]

了解详情

如何用批量控制训练神经网络的稳定性

如何用批量控制训练神经网络的稳定性

2020-06-28 机器学习

使用梯度下降来训练神经网络,其中基于训练数据集的子集计算用于更新权重的误差估计。 在误差梯度估计中使用的来自训练数据集中的样本数称为批次大小,并且是影响学习算法的动态的重要超参数。 重要的是要探索你的模型的动态,以确保你能最大限度地利用它。 在本教程中,你将发现梯度下降的三种不同风 [......]

了解详情

深度学习神经网络中卷积层是如何工作的?

深度学习神经网络中卷积层是如何工作的?

2020-06-24 机器学习

卷积层是卷积神经网络中使用的主要构件。 卷积是将滤波器简单地应用于导致激活的输入。对输入重复应用相同的过滤器会产生称为特征图的激活图,其指示输入(例如图像)中检测到的特征的位置和强度。 卷积神经网络的创新之处在于能够在特定预测建模问题(如图像分类)的约束下,自动并行学习针对训练数据集的大 [......]

了解详情

机器学习算法的过拟合和欠拟合

机器学习算法的过拟合和欠拟合

2020-06-17 机器学习

机器学习性能差的原因要么是数据拟合过高,要么是数据拟合不足。 在这篇文章中,你将发现机器学习中的泛化概念,以及随之而来的过度匹配和不足匹配的问题。 我们开始吧。 机器学习中的目标函数逼近 有监督的机器学习最好理解为近似将输入变量(X)映射到输 [......]

了解详情