网站首页 站内搜索

搜索结果

查询Tags标签: 李宏毅,共有 62条记录
  • 李宏毅机器学习-回归

    task2 回归 找到一个Function,通过这个Function预测出一个数值,如根据股票走势预测明天的股票情况,根据宝可梦的属性预测它的CP值 2.1 线性模型:input x: featrue w: weight b: bias 2.2 损失函数(Loss Function) 损失函数的作用是衡量参数的好坏 线性模型中损失函数用…

    2022/7/14 6:20:14 人评论 次浏览
  • (转载)李宏毅自然语言处理——GPT3简介

    李宏毅自然语言处理——GPT3简介本文原地址:https://blog.csdn.net/yjw123456/article/details/119705148引言 今天来介绍下牛逼的GPT-31,它是一个拥有1750亿参数的巨大的自回归(autoregressive)语言模型。 GPT-3简介之前最大的语言模型是Turing NLG,它由170亿参数,而…

    2022/7/2 23:20:52 人评论 次浏览
  • (转载)李宏毅自然语言处理——GPT3简介

    李宏毅自然语言处理——GPT3简介本文原地址:https://blog.csdn.net/yjw123456/article/details/119705148引言 今天来介绍下牛逼的GPT-31,它是一个拥有1750亿参数的巨大的自回归(autoregressive)语言模型。 GPT-3简介之前最大的语言模型是Turing NLG,它由170亿参数,而…

    2022/7/2 23:20:31 人评论 次浏览
  • 李宏毅机器学习2022年学习笔记(一)

    Introduction 1. 概念机器学习可以应用到很多场景中,例如语音识别、图像识别、AI智能下棋等。它的输入可以是一段声音信号/图片/物体之间的位置关系,数据类型例如:Vector、Matrix、Sequence等。之后通过机器学习寻找一种将输入进行转化为你想要的输出结果的方法,经过这…

    2022/4/30 23:30:09 人评论 次浏览
  • 【人工智能导论:模型与算法】机器学习基础

    ref:李宏毅 邱锡鹏

    2021/12/28 9:07:48 人评论 次浏览
  • 【人工智能导论:模型与算法】机器学习基础

    ref:李宏毅 邱锡鹏

    2021/12/28 9:07:48 人评论 次浏览
  • 李宏毅深度学习——深度学习介绍

    Deep Learning近些年来吸引到了很多的关注,并且横跨多领域、横跨多种产品,有非常非常多的应用深度学习的历史、步骤 1958年,一开始perception的提出引起了轰动, 有人说可以利用perception来分辨坦克和卡车,但结果是拍摄坦克卡车的日子不同,一天是雨天一天是晴天,pe…

    2021/12/12 23:48:19 人评论 次浏览
  • 李宏毅深度学习——深度学习介绍

    Deep Learning近些年来吸引到了很多的关注,并且横跨多领域、横跨多种产品,有非常非常多的应用深度学习的历史、步骤 1958年,一开始perception的提出引起了轰动, 有人说可以利用perception来分辨坦克和卡车,但结果是拍摄坦克卡车的日子不同,一天是雨天一天是晴天,pe…

    2021/12/12 23:48:19 人评论 次浏览
  • 李宏毅2020深度学习02

    Brief Introduction of Deep LearningNeural Network 确定参数: 一个神经元中所有的w和b记为参数θ 确定神经元的连接方式: Fully Connect Feedforward Network 用矩阵形式表示: goodness of function 使用梯度下降求解使loss最小的θ,loss为交叉熵 Backpropaga…

    2021/12/4 23:47:46 人评论 次浏览
  • 李宏毅2020深度学习02

    Brief Introduction of Deep LearningNeural Network 确定参数: 一个神经元中所有的w和b记为参数θ 确定神经元的连接方式: Fully Connect Feedforward Network 用矩阵形式表示: goodness of function 使用梯度下降求解使loss最小的θ,loss为交叉熵 Backpropaga…

    2021/12/4 23:47:46 人评论 次浏览
  • 李宏毅机器学习组队学习打卡活动day06---卷积神经网络

    写在前面 报了一个组队打卡活动,现在已经到了任务6,今天是学习卷积神经网络,之前也是听过,但没有好好学习,正好趁这个机会,好好学习下。参考视频:https://www.bilibili.com/video/av59538266 参考笔记: https://github.com/datawhalechina/leeml-notes为什么用CNN?…

    2021/11/28 23:14:01 人评论 次浏览
  • 李宏毅机器学习组队学习打卡活动day06---卷积神经网络

    写在前面 报了一个组队打卡活动,现在已经到了任务6,今天是学习卷积神经网络,之前也是听过,但没有好好学习,正好趁这个机会,好好学习下。参考视频:https://www.bilibili.com/video/av59538266 参考笔记: https://github.com/datawhalechina/leeml-notes为什么用CNN?…

    2021/11/28 23:14:01 人评论 次浏览
  • 李宏毅2021春机器学习课程笔记--类神经网络(三)

    视频链接: https://www.bilibili.com/video/BV1Wv411h7kN?p=13 自动调整学习率 learning rate critical point 有时不是训练时的最大障碍->当loss不再下降时, gradient真的很小吗? 下图 在 error surface反复横跳 对于convex(等高线为椭圆)的error surface,设置…

    2021/11/4 23:13:16 人评论 次浏览
  • 李宏毅2021春机器学习课程笔记--类神经网络(三)

    视频链接: https://www.bilibili.com/video/BV1Wv411h7kN?p=13 自动调整学习率 learning rate critical point 有时不是训练时的最大障碍->当loss不再下降时, gradient真的很小吗? 下图 在 error surface反复横跳 对于convex(等高线为椭圆)的error surface,设置…

    2021/11/4 23:13:16 人评论 次浏览
  • 李宏毅2021春机器学习课程笔记--类神经网络(四)

    视频链接:https://www.bilibili.com/video/BV1Wv411h7kN?p=14&spm_id_from=pageDriver 如何分类 分类与回归class 不能单纯根据123来分类,会有关系远近的误导,一般采用one-hot。(单位向量) a1/a2/a3 不同的weight,产生不同组的数字 对于分类,y为向量,且最后…

    2021/11/4 23:11:59 人评论 次浏览
共62记录«上一页12345下一页»
扫一扫关注最新编程教程