- 全部
- 博客
- 下载
- 论坛
- 学院
- 深度学习基础与TensorFlow实践 - CSDN学院
-
- 已经购买课程的同学加微信:superaihelper,加入课程讨论群。本课程主要介绍了深度学习的基础原理和TensorFlow系统基本使用方法。TensorFlow是目前机器学习、深度学习领域最优秀的计算系统之一,本课程将结合实例介绍使用TensorFlow开发机器学习应用的详细方法和步骤,着重讲解了用于图像识别的卷积神经网络和用于自然语言处理的
- https://edu.csdn.net/course/detail/5222
- 神经网络 - CSDN博客
- 神经网络 (2011-04-05 11:57:03) 转载▼ 本文主要内容包括: (1) 介绍神经网络基本原理,(2) AForge.NET实现前向神经网络的方法,(3) Matlab实现前向神经网络的方法 。 第0节、引例 本文以Fisher的Iris数据集作为神经网络
- https://blog.csdn.net/m_focus_wpf/article/details/74784335
- 神经网络图灵机 - CSDN博客
- mory)来增强神经网络的能力。新系统可以与图
- https://blog.csdn.net/bbbeoy/article/details/79041554
- Neural Networks(神经网络) - CSDN博客
- 神经网络基本原理,Python实现,改进,TF应用。人类一向善于从大自然中寻找启发,并做出必要的改进来满足某种需要。而人类本身就有很多不可思议的事情,比如大脑。机器学习,学习学习,参考人类本身的学习就是对所见的事物一步一步的总结,一层一层的抽象,而大脑的神经-中枢-大脑的工作过程或许是一个不断迭代,不断抽象的过程,从原始的信号,做低级的抽象,逐渐向高级抽象
- https://blog.csdn.net/qq_39388410/article/details/78297546
- 神经网络注意力机制--Attention in Neural Networks - CSDN博客
- Attention in Neural Networks and How to Use It http://akosiorek.github.io/ml/2017/10/14/visual-attention.html这篇博文主要介绍神经网络中的注意力机制,代码实现了两个 soft visual attentionWhat is Attention?
- https://blog.csdn.net/zhangjunhit/article/details/78249184
- 神经网络笔记之感知机 - CSDN博客
- 由于最近需要开始研究神经网络方面的项目,于是乎在重新再看Geoffrey Hinton大神的Neural Network for machine learning的公开课,跟着Hinton大神再把神经网络的东西过一遍。本文主要介绍和总结感知机的主要内容。
- https://blog.csdn.net/qq_34841823/article/details/78223573
- Coursera 吴恩达 Deep Learning 第二课 改善神经网络 Improving Deep Neural Networks 第二周 编程作业代码Optimization methods - CSDN博客
- Coursera deeplearnig.ai 吴恩达 Andrew Ng 深度学习 Deep Learning 第二课 改善神经网络 Improving Deep Neural Networks 第二周 编程作业代码Optimization methods
- https://blog.csdn.net/justry24/article/details/78150869
- Coursera 吴恩达 Deep Learning 第二课 改善神经网络 Improving Deep Neural Networks 第三周 编程作业代码 Tensorflow Tutorial - CSDN博客
- Coursera deeplearning.ai 吴恩达 深度学习 Deep Learning 第二课 改善神经网络 Improving Deep Neural Networks 第二周 编程作业代码 Tensorflow Tutorial
- https://blog.csdn.net/justry24/article/details/78154799
- 循环神经网络(RNN, Recurrent Neural Networks)学习笔记:基础理论 - CSDN博客
- RNN(Recurrent Neuron Network)是一种对序列数据建模的神经网络。继Bengio提出基于神经网络的概率语言模型并获得成功之后,Mikolov于2010年提出利用RNN建模语言模型,2012年Sundermeyer提出RNN的改进版本--LSTM。近两年,RNN开始在自然语言处理、图像识别、语音识别等领域迅速得到大量应用。因项目需要,
- https://blog.csdn.net/xingzhedai/article/details/53144126
- 深度神经网络的多任务学习概览(An Overview of Multi-task Learning in Deep Neural Networks) --多任务学习-2 - CSDN博客
- 1. 前言 在机器学习中,我们通常关心优化某一特定指标,不管这个指标是一个标准值,还是企业KPI。为了达到这个目标,我们训练单一模型或多个模型集合来完成指定得任务。然后,我们通过精细调参,来改进模型直至性能不再提升。尽管这样做可以针对一个任务得到一个可接受得性能,但是我们可能忽略了一些信息,这些信息有助于在我们关心的指标上做得更好。具体来说,这些信息就是相
- https://blog.csdn.net/wuguangbin1230/article/details/78223996
- Andrew NG 机器学习 笔记-week5-神经网络的学习(Neural Networks:Learning) - CSDN博客
- 一、代价函数(Cost Function)首先引入一些便于稍后讨论的新标记方法:假设神经网络的训练样本有 m 个,每个包含一组输入 x 和一组输出信号 y L =神经网络总层数 sls_l = ll 层的神经元(neuron)个数(不包含偏置单元(bias unit)) sLs_L = 最后一层中神经元的个数 K = 输出单元或类的数量 将神经网络的
- https://blog.csdn.net/zxm1306192988/article/details/78139126
搜索结果部分由
提供

神经网络的相关搜索