网站首页 站内搜索

搜索结果

查询Tags标签: 样本,共有 247条记录
  • mixup: BEYOND EMPIRICAL RISK MINIMIZATION概述

    参考简书 1.针对的问题大型的深度神经网络存在一些不好的行为,比如记忆性和对抗样本敏感问题。当前的神经网络大多都是基于经验风险最小化(ERM原理)这个基本思想进行学习或训练的,这个思想通过最小化在训练数据的平均误差以拟合真实的数据分布进行学习,当样本容量足够…

    2022/5/26 23:24:04 人评论 次浏览
  • focal loss及其优化

    参考这篇文章: https://blog.csdn.net/cxkyxx/article/details/108455805我的理解:focal loss不是解决样本不平衡的问题,是解决hard/easy样本的问题。平衡交叉熵 focal loss 样本平衡focal loss

    2022/5/4 6:20:24 人评论 次浏览
  • 支持向量机SVM(一):基本概念、目标函数的推导(及函数间隔取1的深入思考)

    本文旨在介绍支持向量机(SVM)的基本概念并解释SVM中的一个关键问题: 为什么SVM目标函数中的函数间隔取1? 一、分类问题 给定N个分属两类的样本,给出一个决策边界使得边界一侧只含一种样本(如下图) 从直观上讲,两种样本集被分开的“间隔”越大表示分类效果越好,…

    2022/4/19 6:12:51 人评论 次浏览
  • Jmeter常见的参数名称

    Elapsed time JMeter 测量从发送请求之前到收到最后一个响应之后所经过的时间。 JMeter 不包括呈现响应所需的时间,JMeter 也不处理任何客户端代码Latency JMeter 测量从发送请求之前到接收到第一个响应之后的延迟。因此,时间包括组装请求所需的所有处理以及组装响应的第…

    2022/4/18 23:12:50 人评论 次浏览
  • What Neural Networks Memorize and Why: Discovering the Long Tail via Influence Estimation

    目录概主要内容一种简便的估计方法被记忆的样本所产生的边际效用不同网络结构下的实验最后一次是否足够用于记忆一些示例Feldman V. and Zhang C. What neural networks memorize and why: discovering the long tail via influence estimation. In Advances in Neural In…

    2022/4/7 6:23:18 人评论 次浏览
  • 论文笔记 -- Contrastive Clustering(对比聚类)

    文章目录 Contrastive Clustering文章介绍问题背景拟解决问题联合优化的应用 主要贡献相关工作对比学习深度聚类实例级和聚类级的含义 提出的方法模型结构PCB模块ICH模块CCH模块算法流程损失构建 实验数据集介绍实验结果类簇演化过程数据增强的消融实验两种对比方式的消融…

    2022/3/21 23:30:39 人评论 次浏览
  • 音频编解码的基础点

    音频编解码的基础点: 音频文件质量三要素: (1)采样率: 采样率是指一秒内对音频文件采样的次数或一秒内记录的采样数。它以每秒采样数或赫兹(Hz/kHz)为单位进行测量(一秒钟内的样本越多,音频信号将携带的细节就越多)。 (2)采样深度: 影响音频质量的第二个变量是…

    2022/3/21 6:29:48 人评论 次浏览
  • 决策树算法

    决策树算法是一种通用的机器学习算法,既可以执行分类也可以执行回归任务,同时也是一种可以拟合复杂数据集的功能强大的算法; 一、可视化决策树模型 通过以下代码,我们使用iris数据集构建一个决策树模型,我们使用数据的后两个维度并设置决策树的最大深度为2,最后通过…

    2022/3/7 11:15:12 人评论 次浏览
  • K近邻算法

    Python微信订餐小程序课程视频 https://edu.csdn.net/course/detail/36074 Python实战量化交易理财系统 https://edu.csdn.net/course/detail/35475 一、K近邻算法简介 K近邻算法(K-Nearest Neighbor)简称KNN算法,是最简单的预测模型之一,它没有多少数学上的假设,也不要…

    2022/3/3 14:46:57 人评论 次浏览
  • 目标检测算法之评价指标

    1 混淆矩阵(Confusion Matrix) 混淆矩阵(Confusion Matrix) 说明: 假设有一个算法,其预测某种癌症的准确率为99.9%,这个算法好吗?99.9%看上去很高,但是如果这种癌症本身的发病率只有0.1%,即使不训练模型,直接预测所有人都是健康的,准确率也能达到99.9%,更极端的…

    2022/3/2 22:45:33 人评论 次浏览
  • 常用机器学习解释性算法:特征权重,feature_importance, lime,shap

    目录 1.线性回归中的特征权重β: 2. 树模型中的feature_importance: 3. lime: 4. shap: 5. 各种算法对比:1.线性回归中的特征权重β:线性模型中,特征可以归类为:数值特征(比如气温)、二进制特征(性别0/1)、范畴特征(天气:下雨、阴天、晴天,使用one-hot编码,…

    2022/2/28 20:23:58 人评论 次浏览
  • 模型,算法,数据的结与“解”

    前一篇写过关于数据的认知,感觉理解的还是不到位,再写一次。 采用周志华老师出版的西瓜书来阐述相关概念: 数据(raw data/data):一般包括未经处理的样本(图片,文本,声音,视频),经过处理(数值,向量),也是客观事物的属性、数量、位置及相关关系的抽象表示。…

    2022/2/25 11:51:40 人评论 次浏览
  • 基本的K均值聚类算法matlab代码,给了一组样本数据作为例子,注释详细

    基本的K均值聚类算法matlab代码,给了一组样本数据作为例子,注释详细,聚类的样本数据可以进行修改。 编号:7415643229030781浪迹天涯

    2022/2/22 22:31:45 人评论 次浏览
  • 各常用分类算法的优缺点总结:DT/ANN/KNN/SVM/GA/Bayes/Adaboosting/Rocchio

    1决策树(Decision Trees)的优缺点决策树的优点: 一、 决策树易于理解和解释.人们在通过解释后都有能力去理解决策树所表达的意义。 二、 对于决策树,数据的准备往往是简单或者是不必要的.其他的技术往往要求先把数据一般化,比如去掉多余的或者空白的属性。 三、 能够…

    2022/2/22 11:53:30 人评论 次浏览
  • XGBoost算法

    文章转载自microstrong的深入理解XGBoost 1. XGBoost简介 XGBoost的全称是eXtreme Gradient Boosting,它是经过优化的分布式梯度提升库,旨在高效、灵活且可移植。XGBoost是大规模并行boosting tree的工具,它是目前最快最好的开源 boosting tree工具包,比常见的工具包快…

    2022/2/14 17:11:53 人评论 次浏览
扫一扫关注最新编程教程