网站首页 站内搜索

搜索结果

查询Tags标签: 李宏毅,共有 62条记录
  • 李宏毅《机器学习》学习笔记2

    Regression 是一种机器学习的 task,即指 machine 找到的 function,它的输出是一个 scalar,这就叫做 regression。这次就来学习搭建一个用于预测宝可梦进化后的combatpower(cp)值的机器学习模型。 模型搭建步骤模型假设,根据问题复杂程度选择模型(线性模型) 模型评…

    2021/7/15 6:06:35 人评论 次浏览
  • (2)李宏毅深度学习简介----回归

    一、回归定义 找到一个函数,通过输入特征x,输出一个数值结果。 二、模型步骤(what)模型假设,选择模型框架(线性模型)(why)模型评估,如何判断众多模型(不同参数)的优劣(损失函数)(how)模型优化,如何筛选最优的模型(梯度下降)三、回归模型 1、线性回归:…

    2021/7/14 6:06:22 人评论 次浏览
  • (2)李宏毅深度学习简介----回归

    一、回归定义 找到一个函数,通过输入特征x,输出一个数值结果。 二、模型步骤(what)模型假设,选择模型框架(线性模型)(why)模型评估,如何判断众多模型(不同参数)的优劣(损失函数)(how)模型优化,如何筛选最优的模型(梯度下降)三、回归模型 1、线性回归:…

    2021/7/14 6:06:22 人评论 次浏览
  • 李宏毅机器学习(二)

    Basic Concept 1.Error Error 来源于bias(误差,期望歪了)和variance(方差,模型能覆盖的范围)。bias大:underfitting欠拟合 原因:模型不够复杂,覆盖范围不够广 Variance大:overfitting过拟合 原因:模型太复杂,覆盖范围太大2.Solution Bias: more feature inpu…

    2021/7/12 23:10:55 人评论 次浏览
  • 李宏毅机器学习(二)

    Basic Concept 1.Error Error 来源于bias(误差,期望歪了)和variance(方差,模型能覆盖的范围)。bias大:underfitting欠拟合 原因:模型不够复杂,覆盖范围不够广 Variance大:overfitting过拟合 原因:模型太复杂,覆盖范围太大2.Solution Bias: more feature inpu…

    2021/7/12 23:10:55 人评论 次浏览
  • 【李宏毅2020 ML/DL】P59 Unsupervised Learning - Auto-encoder

    我已经有两年 ML 经历,这系列课主要用来查缺补漏,会记录一些细节的、自己不知道的东西。已经有人记了笔记(很用心,强烈推荐):https://github.com/Sakura-gh/ML-notes 本节对应笔记: https://github.com/Sakura-gh/ML-notes/blob/master/ML-notes-md/22_Unsupervise…

    2021/6/22 23:31:52 人评论 次浏览
  • 【李宏毅2020 ML/DL】P43-44 More about Adversarial Attack | Images & Audio

    我已经有两年 ML 经历,这系列课主要用来查缺补漏,会记录一些细节的、自己不知道的东西。已经有人记了笔记(很用心,强烈推荐):https://github.com/Sakura-gh/ML-notes 本节内容综述 本节课由助教黄冠博讲解。将分为影像与语音两部分讲解。 One Pixel Attack,仅仅改变…

    2021/6/22 23:28:35 人评论 次浏览
  • 【李宏毅2020 ML/DL】P45-50 Network Compression

    我已经有两年 ML 经历,这系列课主要用来查缺补漏,会记录一些细节的、自己不知道的东西。已经有人记了笔记(很用心,强烈推荐):https://github.com/Sakura-gh/ML-notes 本节内容综述 为什么提出模型压缩?因为我们有把Deep Model放在移动端设备的需求,因此要压缩空间…

    2021/6/22 23:28:23 人评论 次浏览
  • 【李宏毅2020 ML/DL】P52 Network Compression - Network Pruning

    我已经有两年 ML 经历,这系列课主要用来查缺补漏,会记录一些细节的、自己不知道的东西。已经有人记了笔记(很用心,强烈推荐):https://github.com/Sakura-gh/ML-notes 本节内容综述 本节课继续由助教Arvin Liu讲解,内容为 Network Pruning 。 首先来复习一下 Neuron…

    2021/6/22 23:27:58 人评论 次浏览
  • 【李宏毅2020 ML/DL】P56 Transformer and its variant | New Architecture

    我已经有两年 ML 经历,这系列课主要用来查缺补漏,会记录一些细节的、自己不知道的东西。已经有人记了笔记(很用心,强烈推荐):https://github.com/Sakura-gh/ML-notes 本节内容综述 本节课由助教纪伯翰讲解。本次演讲的标题为“New Architecture”。 助教建议:一般,…

    2021/6/22 23:27:14 人评论 次浏览
  • 李宏毅机器学习课程笔记-15.1无监督学习简介

    目录聚类K-meansHAC降维引入降维降维作用原理如何实现降维生成 无监督学习(Unsupervised Learning)可以分为两类:化繁为简聚类(Clustering) 降维(Dimension Reduction)无中生有生成(Generation)在无监督学习(Unsupervised Learning)中,数据集中通常只有\((x,\hat y)\)中…

    2021/6/13 10:25:52 人评论 次浏览
  • Python_机器学习_李宏毅老师作业二

    # Author:Richard import numpy as np import matplotlib.pyplot as pltnp.random.seed(0) # 使得每次生成的随机数相同 X_train_path = r"G:\课程学习\机器学习\Mr_Li_ML\HomeWorks\数据\hw2\data\X_train" Y_train_path = r"G:\课程学习\机器学习\Mr_Li…

    2021/6/11 20:21:07 人评论 次浏览
  • 李宏毅ML笔记5: 深度学习简介

    目录 DL的沉沉浮浮 DL三步骤 1. 定义函式集 全连接前馈网络 矩阵运算 Output Layer 手写数字识别例子 2.定义函式好坏 3. 找最好的函式DL的沉沉浮浮 Perceptron感知机(1958) 一种linear model, 和Logistic Regression类似,只是少了sigmoid的部分. 然后发现它有局限. Mult…

    2021/6/2 10:53:39 人评论 次浏览
  • 李宏毅机器学习_10-4无监督学习-自编码器

    没有数据的时候直接自我学习,非常妙 深度学习,每层用不同维度,能把不同层面的特征学习出来,更好的表示输入的特征向量 加入噪音,鲁棒性会更好,不仅能学到输入的特征,还能把噪音数据过滤掉 传统的词袋发只是累计的一个词频统计而已,并没有把上下文的语义信息考虑…

    2021/5/16 10:26:52 人评论 次浏览
  • 李宏毅机器学习课程笔记-12.3对抗防御入门

    目录What is DefensePassive DefenseProactive Defense What is Defense 有人说模型容易被攻破是因为过拟合,但其实并不是,因为weight regularization、dropout、model ensemble都不能抵挡Adversarial Attack,并且Attack可以攻击多个model。 Defense分为两类:Passive …

    2021/4/30 10:28:00 人评论 次浏览
扫一扫关注最新编程教程