网站首页 站内搜索

搜索结果

查询Tags标签: 样本,共有 247条记录
  • slam14(2) v1 概率论知识 期望 方差 协方差

    https://blog.csdn.net/qq_39521554/article/details/79633207总体方差(variance):总体中变量离其平均值距离的平均。一组数据样本方差(variance):样本中变量离其平均值距离的平均。一组数据 总结一下: 分母是m-1的情况下,估计值是总体方差的无偏估计 分母是m的情…

    2022/9/16 23:18:33 人评论 次浏览
  • 逻辑回归与梯度下降法全部详细推导

    from: https://www.cnblogs.com/onemorepoint/p/9321199.html 逻辑斯谛回归 感知机的一个最大缺点是:在样本不是完全线性可分的情况下,它永远不会收敛。分类算中的另一个简单高效的方法:logistics regression(分类模型)很多情况下,我们会将逻辑回归的输出映射到二元…

    2022/9/16 6:19:58 人评论 次浏览
  • 《Deep Feature Extraction and Classification of Hyperspectral Images Based on Convolutional Neural Ne

    论文题目《Deep Feature Extraction and Classification of Hyperspectral Images Based on Convolutional Neural Networks》 论文作者:Y ushi Chen, Member , IEEE, Hanlu Jiang, Chunyang Li, Xiuping Jia, Senior Member , IEEE, and Pedram Ghamisi, Member , IEEE…

    2022/9/14 23:21:08 人评论 次浏览
  • 富数-AnonymFL

    本文学习文章“2022 WAIC|「全匿踪联邦学习」AnonymFL正式发布:破解用户ID暴露难题,实现真正合规可信的隐私计算”,记录笔记。引言 2022年08月26日,富数科技宣布实现了“全匿踪联邦学习”,突破了无需安全求交、不泄露交集ID、在全匿名数据集下进行联邦学习的技术难题…

    2022/9/7 23:23:14 人评论 次浏览
  • 【CVPR2022】BatchFormer: Learning to Explore Sample Relationships for Robust Representation Learning

    【CVPR2022】BatchFormer: Learning to Explore Sample Relationships for Robust Representation Learning 论文:https://arxiv.org/pdf/2203.01522.pdf 代码:https://github.com/zhihou7/BatchFormerBatchFormer的 V1 版本 这是一个来自 悉尼大学 和 京东 的工作。为了…

    2022/9/7 6:23:27 人评论 次浏览
  • 04. Prometheus - 指标处理(PromQL)

    指标(Metrics) Prometheus 会将所有采集到的样本数据以时间序列(time-series)的方式保存在内存数据库中,并且定时保存到硬盘上。 时间序列按照时间戳和值的序列顺序存放,每条时间序列通过 指标名称(metrics name)和一组 标签集(labelset)命名。在时间序列中的每…

    2022/8/21 6:56:34 人评论 次浏览
  • mean-shift算法详解(转)

    转自:mean-shift算法详解MeanShift最初由Fukunaga和Hostetler在1975年提出,但是一直到2000左右这篇PAMI的论文Mean Shift: A Robust Approach Toward Feature Space Analysis,将它的原理和收敛性等重新整理阐述,并应用于计算机视觉和图像处理领域之后,才逐渐为人熟知…

    2022/8/2 1:26:17 人评论 次浏览
  • 机器学习:聚类

    1、聚类任务 聚类是一种经典的无监督学习方法,无监督学习的目标是通过对无标记训练样本的学习,发掘和揭示数据集本身潜在的结构与规律,即不依赖于训练数据集的类标记信息。 聚类则是试图将数据集的样本划分为若干个互不相交的类簇,从而每个簇对应一个潜在的类别。 2、…

    2022/7/23 23:27:03 人评论 次浏览
  • 使用 CLIP 对没有标记的图像进行零样本无监督分类

    深度图像分类模型通常以监督方式在大型带注释数据集上进行训练。随着更多带注释的数据加入到训练中,模型的性能会提高,但用于监督学习的大规模数据集的标注成本时非常高的,需要专家注释者花费大量时间。为了解决这个问题,人们开始寻找更便宜的标注的标签来源,是否有可…

    2022/7/9 23:23:35 人评论 次浏览
  • 机器学习—最近邻算法

    kNN算法的核心思想是如果一个样本在特征空间中的k个最相邻的样本中的大多数数以一个类型别,则该样本也属于这个类别,并具有该类别上样本的特征。该方法在确定分类决策上,只依据最近邻的一个或者几个样本的类别来决定待分样本所属的类别。 1.鸢尾花分类问题 from sklear…

    2022/7/2 1:22:31 人评论 次浏览
  • 小样本利器2.文本对抗+半监督 FGSM & VAT & FGM代码实现

    小样本利器2.文本对抗+半监督 FGSM & VAT & FGM代码实现 上一章我们聊了聊通过一致性正则的半监督方案,使用大量的未标注样本来提升小样本模型的泛化能力。这一章我们结合FGSM,FGM,VAT看下如何使用对抗训练,以及对抗训练结合半监督来提升模型的鲁棒性。本章我…

    2022/6/28 23:33:07 人评论 次浏览
  • 样本分析运营实习面试总结

    写这个博客的时候已经来实习三天了~~~晚上没那么快想睡觉就写一下。应该也只有我的学弟学妹们会看吧,但是我还是认真记录一下下,不然就快忘记了~~ 首先贴一下这个招聘岗位的详情,现在看看招聘的要求我还是觉得自己找到实习是真的运气很好!!!找实习一定要多投!!!说…

    2022/6/27 6:20:59 人评论 次浏览
  • 分布式机器学习:同步并行SGD算法的实现与复杂度分析(PySpark)

    1 分布式机器学习概述 大规模机器学习训练常面临计算量大、训练数据大(单机存不下)、模型规模大的问题,对此分布式机器学习是一个很好的解决方案。 1)对于计算量大的问题,分布式多机并行运算可以基本解决。不过需要与传统HPC中的共享内存式的多线程并行运算(如OpenM…

    2022/6/27 1:21:45 人评论 次浏览
  • 关于样本增强贴图的实验结果思考

    三种贴图方式: 海量图片随机贴图、相似图片随机贴图、相似图片在空白区域贴图 以上三种贴图方式无法说明哪一种更有优势,针对某种logo可能有自己合适的贴图方式,如a类logo适合海量图片随机贴,b类logo适合相似图片随机贴 专门测试某一种贴图方式的效果时,不应当仅使用…

    2022/6/13 23:24:40 人评论 次浏览
  • 机器学习:模型评估与选择

    模型评估与选择 1、经验误差与过拟合 错误率:分类错误的样本数占样本总数的比例。 精度=1-错误率。 误差:学习器的实际预测输出与样本的真实输出之间的差异。 训练误差/经验误差:学习器在训练集上的误差。 泛化误差:在新样本上的误差。 2、评估方法 ⭐留出法:直接将数…

    2022/6/11 23:52:08 人评论 次浏览
共247记录«上一页1234...17下一页»
扫一扫关注最新编程教程