网站首页 站内搜索

搜索结果

查询Tags标签: 神经网络,共有 487条记录
  • 深度学习基础课: “判断性别”Demo需求分析和初步设计(下1)

    大家好~我开设了“深度学习基础班”的线上课程,带领同学从0开始学习全连接和卷积神经网络,进行数学推导,并且实现可以运行的Demo程序 线上课程资料: 本节课录像回放 加QQ群,获得ppt等资料,与群主交流讨论:106047770 本系列文章为线上课程的复盘,每上完一节课就会同…

    2022/8/30 23:23:02 人评论 次浏览
  • ML第21周学习小结

    本周收获 总结一下本周学习内容:1、《机器学习》第14章:概率图模型14.1 隐马尔可夫模型 14.2 马尔科夫随机场 14.3 条件随机场 14.4 学习与推断 14.5 近似推断 14.6 话题模型

    2022/8/28 6:23:48 人评论 次浏览
  • 神经网络学习-优化算法5

    优化算法 本次主要对动量梯度下降算法,RMSprop算法,Adam优化算法的学习进行一个总结,主要对这几个算法的公式和原理进行介绍,对于代码部分可以参考: https://blog.csdn.net/u013733326/article/details/79907419 mini-batch梯度下井 当一个数据集较大时,比如这个数据…

    2022/8/12 1:28:18 人评论 次浏览
  • 声纹-前世今生

    声纹: voiceprint. 可以将一个人的声音 与 其他人的声音区分开来 的特征 属于音频处理技术 生物特征识别技术分为:生理特征和行为特征 生理特征:指纹、DNA、人脸、视网膜 行为特征:声纹、笔迹、步态 模板匹配方法 基于时频谱的人工鉴别法 对应的文字内容一致,文本相关…

    2022/8/7 23:28:04 人评论 次浏览
  • 神经网络优化:RMSprop(均方根传播梯度下降法)

    最终目的仍是减少振荡方向(b)的更新幅度,提高前进方向(ω)的更新幅度 引入Sdω和Sdb,如公式表达,由于dω<db,求其均方根作为分母,实现ω的更新幅度大,而b的更新幅度小 注意1. 使用中为了避免出现√Sdω=0导致除数为0的情况出现,应令√(Sdω+ε) (吴恩达视频中建…

    2022/7/31 23:24:41 人评论 次浏览
  • matlab BP神经网络 回归或者分类程序

    matlab BP神经网络 回归或者分类程序。 有例子,易上手,只要换数据就行,提供代码解释,可修改神经网络内置参数 YID:129665201421679华少zero

    2022/7/16 1:24:38 人评论 次浏览
  • bp神经网络交叉验证算法和确定最佳隐含层节点个数matlab 程序

    bp神经网络交叉验证算法和确定最佳隐含层节点个数matlab 程序,直接运行即可。 数据excel格式,注释清楚,效果清晰,一步上手。 YID:6859628310735572一个处女座的程序猿

    2022/7/15 1:22:40 人评论 次浏览
  • 机器学习---神经网络(Neural Network)

    1. 神经网络的基本概念神经网络的分层:神经网络由输入层、隐藏层、输出层组成。 神经元之间的连接:层与层之间有神经元连接、而层内之间没有神经元连接。连接的神经元都有对应的权重。 输入层:负责接收输入的数据。 输出层:从这层获取神经网络输出数据。 隐藏层:输入…

    2022/7/12 6:22:08 人评论 次浏览
  • 卷积神经网络在深度学习中新发展的5篇论文推荐

    1、Deformable CNN and Imbalance-Aware Feature Learning for Singing Technique Classification Yuya Yamamoto, Juhan Nam, Hiroko Terasawa https://arxiv.org/pdf/2206.12230 歌唱技术是利用音色、音高和声音的其他成分的时间波动来进行富有表现力的声乐表演。它们的…

    2022/7/4 23:25:00 人评论 次浏览
  • 科普 | 深度学习训练和推理有何不同?

    要理解什么是深度神经网络的“训练(training)”,我们可以把它类比成在学校中学习。神经网络和大多数人一样——为了完成一项工作,需要接受教育。 具体来说,经过训练(training)的神经网络可以将其所学应用于数字世界的任务——例如:识别图像、口语词、血液疾病,或…

    2022/6/15 23:24:25 人评论 次浏览
  • JSOI2019 神经网络

    Description 火星人在出生后,神经网络可以看作是一个由若干无向树 \(\{T_1(V_1, E_1), T_2(V_2, E_2),\ldots T_m(V_m, E_m)\}\) 构成的森林。随着火星人年龄的增长,神经连接的数量也不断增长。初始时,神经网络中生长的连接 \(E^\ast = \varnothing\)。神经网络根据如下…

    2022/6/13 23:20:38 人评论 次浏览
  • 深度学习入门(鱼书)学习笔记:第3章 神经网络

    目录导航 第3章 神经网络 3.1 从感知机到神经网络 3.2 激活函数 3.3 多维数组运算 3.4 3层神经网络的实现 3.5 输出层设计 3.6 手写数字识别 运行ch03/mnist_show.py的结果点击查看运行输出 "D:\Program Files\Python\Python37\python.exe" D:/Code/CodePython/…

    2022/6/1 23:21:53 人评论 次浏览
  • 神经网络与深度学习(邱锡鹏)编程练习 2 实验1 线性回归的参数优化 - 最小二乘法

    实验结果: 源代码: import numpy as np import matplotlib.pyplot as pltdef load_data(filename): # 载入数据xys = []with open(filename, r) as f:for line in f:xys.append(map(float, line.strip().split()))xs, ys = zip(*xys)return np.asarray(xs), np.asarra…

    2022/5/31 1:24:19 人评论 次浏览
  • 神经网络与深度学习(邱锡鹏)编程练习 2 实验3 基函数回归(最小二乘法优化)

    通过基函数对元素数据进行交换,从而将变量间的线性回归模型转换为非线性回归模型。最小二乘法 + 多项式基函数 最小二乘法 + 高斯基函数def identity_basis(x):ret = np.expand_dims(x, axis=1)return retdef multinomial_basis(x, feature_num=10):x = np.expand_dims(x…

    2022/5/31 1:24:10 人评论 次浏览
  • 第一个神经网络程序实战

    import numpy as np import pandas as pd from keras.models import Sequential from keras.layers import Densenp.random.seed(10) # 指定乱数种子 # 载入数据集 df = pd.read_csv("D:/Keras/Ch05/diabetes.csv")dataset = df.values np.random.shuffle(dat…

    2022/5/25 1:20:04 人评论 次浏览
扫一扫关注最新编程教程