网站首页 站内搜索

搜索结果

查询Tags标签: mu,共有 70条记录
  • GMOJ5516. Function

    题目大意 求 \[\sum_{i=1}^n\sum_{d|i}\mu(d)\sigma_0^2(\frac i d) \]\(n\le 10^9, T \le 10\)。 解题思路 讲题的时候讲的可能不太清晰。这里给出一个详细的过程。 许多人都发现了这道题是一个min_25筛的版题并爆切了,但是否有人尝试证明了呢? 根据SDOI2015 约数个数和…

    2021/10/4 6:13:22 人评论 次浏览
  • 常用的概率分布

    统计分布常用于总体的建模,因此我们处理的往往不是单个的分布,而是一族分布。一个分布族共用一个函数形式,其中包含一个或多个参数,用以确定具体的分布。1 离散分布 1.1 二项分布 (1)参数为 p 的(0-1)分布(Bernoulli) 分布律 :P(X=x∣p)=px(1−p)1−x;…

    2021/9/30 23:14:05 人评论 次浏览
  • 常用的概率分布

    统计分布常用于总体的建模,因此我们处理的往往不是单个的分布,而是一族分布。一个分布族共用一个函数形式,其中包含一个或多个参数,用以确定具体的分布。1 离散分布 1.1 二项分布 (1)参数为 p 的(0-1)分布(Bernoulli) 分布律 :P(X=x∣p)=px(1−p)1−x;…

    2021/9/30 23:14:05 人评论 次浏览
  • 【图像去噪】基于matlab全变分算法图像去噪【含Matlab源码 1324期】

    一、全变分算法简介 全变分(Total variation),也称为全变差,是图象复原中常用的一个名词。本文简要介绍全变分的概念以及在图象去噪中的应用。 1 一维信号的全变分和去噪 1.1 一维连续函数的全变分 一维连续实函数f(x)f(x)在区间[a,b]⊂R[a,b]⊂R上的全变分定义为参数…

    2021/9/24 17:12:40 人评论 次浏览
  • 【图像去噪】基于matlab全变分算法图像去噪【含Matlab源码 1324期】

    一、全变分算法简介 全变分(Total variation),也称为全变差,是图象复原中常用的一个名词。本文简要介绍全变分的概念以及在图象去噪中的应用。 1 一维信号的全变分和去噪 1.1 一维连续函数的全变分 一维连续实函数f(x)f(x)在区间[a,b]⊂R[a,b]⊂R上的全变分定义为参数…

    2021/9/24 17:12:40 人评论 次浏览
  • 【转】EM算法MATLAB代码及详细注解

    【转】EM算法MATLAB代码及详细注解 版权声明:本文为博主原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。 本文链接:https://blog.csdn.net/qq_23968185/article/details/70940197 作者:鼹鼠的胡须 觉得有用的话,欢迎一起讨论相互学习~下面代码…

    2021/8/11 14:06:59 人评论 次浏览
  • 【转】EM算法MATLAB代码及详细注解

    【转】EM算法MATLAB代码及详细注解 版权声明:本文为博主原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。 本文链接:https://blog.csdn.net/qq_23968185/article/details/70940197 作者:鼹鼠的胡须 觉得有用的话,欢迎一起讨论相互学习~下面代码…

    2021/8/11 14:06:59 人评论 次浏览
  • 李宏毅《机器学习》学习笔记5.2

    4.classification 分类模型的输出若是将不同分类编号作为真值,可能让模型误认为相邻的分类是相近的,因此使用向量表示不同类别。模型最后的输出值需要softmax处理,使得输出值落在0-1区间。softmax和标准化类似。 分类模型loss function分类模型的loss通过cross-entropy…

    2021/7/22 6:09:41 人评论 次浏览
  • 李宏毅《机器学习》学习笔记5.2

    4.classification 分类模型的输出若是将不同分类编号作为真值,可能让模型误认为相邻的分类是相近的,因此使用向量表示不同类别。模型最后的输出值需要softmax处理,使得输出值落在0-1区间。softmax和标准化类似。 分类模型loss function分类模型的loss通过cross-entropy…

    2021/7/22 6:09:41 人评论 次浏览
  • 集成学习-逻辑回归原理/线性判别/决策树(DataWhale第二期)

    1、逻辑回归逻辑推导 import pandas as pd from sklearn import datasets iris = datasets.load_iris() X = iris.data y = iris.target feature = iris.feature_names data = pd.DataFrame(X,columns=feature) data[target] = y data.head()sepal length (cm)sepal width…

    2021/7/20 23:41:04 人评论 次浏览
  • 集成学习-逻辑回归原理/线性判别/决策树(DataWhale第二期)

    1、逻辑回归逻辑推导 import pandas as pd from sklearn import datasets iris = datasets.load_iris() X = iris.data y = iris.target feature = iris.feature_names data = pd.DataFrame(X,columns=feature) data[target] = y data.head()sepal length (cm)sepal width…

    2021/7/20 23:41:04 人评论 次浏览
  • P3327 [SDOI2015]约数个数和(莫比乌斯反演)

    题目描述: 设\(d(x)\)为\(x\)的约数个数,给定\(n,m\),求\(\sum_{i=1}^n\sum_{j=1}^md(ij)\) 首先有一个前置知识: \(d(ij)=\sum_{x|i}\sum_{y|j}[gcd(x,y)=1]\) 所以原式等于: \(\sum_{i=1}^n\sum_{j=1}^m\sum_{x|i}\sum_{y|j}[gcd(x,y)=1]\) 反演以下: \(\sum_{i=1…

    2021/7/13 6:09:09 人评论 次浏览
  • P3327 [SDOI2015]约数个数和(莫比乌斯反演)

    题目描述: 设\(d(x)\)为\(x\)的约数个数,给定\(n,m\),求\(\sum_{i=1}^n\sum_{j=1}^md(ij)\) 首先有一个前置知识: \(d(ij)=\sum_{x|i}\sum_{y|j}[gcd(x,y)=1]\) 所以原式等于: \(\sum_{i=1}^n\sum_{j=1}^m\sum_{x|i}\sum_{y|j}[gcd(x,y)=1]\) 反演以下: \(\sum_{i=1…

    2021/7/13 6:09:09 人评论 次浏览
  • 基于Python——图像PSNR、SSIM、MSE计算

    评价一幅图像质量的好坏有多种方式,目前最常用的是PSNR、SSIM、MSE。接下来我们具体讲解。 1. MSE(Mean Squared Error)均方误差 MSE是预测值f(x)与目标值y之间差值平方和的均值,公式表示为: MSE=∑i=1n(f(x)−y)2nMSE=\frac{\sum_{i=1}^{n}(f(x)-y)^{2}}{n}MSE=n∑i…

    2021/7/3 22:21:20 人评论 次浏览
  • 吴恩达机器学习笔记-15(异常检测)

    目录异常检测何为异常检测?异常检测常用领域高斯分布(正态分布)参数估计算法开发和评估异常检测算法异常检测与监督学习特征的选择误差分析多元高斯分布异常检测with多元高斯分布 异常检测 异常检测(Anomaly detection)问题是机器学习算法的一个常见应用。这个算法的一…

    2021/6/15 10:33:44 人评论 次浏览
扫一扫关注最新编程教程