网站首页 站内搜索

搜索结果

查询Tags标签: sigmoid,共有 19条记录
  • 神经网络基础以及激活函数,以及梯度下降

    1.神经网络分为三层:输入层,隐藏层以及输出层 2.a^[0]表示输入层,a^[1]表示隐藏层,a^[2]表示输出层,在隐藏层还要表示 则呈现a^[1]1,a^[1]2,a^[1]3 3.m个训练集向量化Z^[1] = W^[1]X+b A^[1] = 符号(Z^[1]) Z^[2] = W^[2]A^[1]+b^[2] a^[2] = 符号(Z^[2])#sigmoid()激…

    2021/8/27 6:07:58 人评论 次浏览
  • 19 机器学习 - Lineage逻辑回归分类算法

    1.概述 Lineage逻辑回归是一种简单而又效果不错的分类算法 什么是回归:比如说我们有两类数据,各有50个点组成,当我门把这些点画出来,会有一条线区分这两组数据,我们拟合出这个曲线(因为很有可能是非线性),就是回归。我们通过大量的数据找出这条线,并拟合出这条线…

    2021/7/8 11:11:27 人评论 次浏览
  • 20 机器学习 - Lineage逻辑回归算法分类案例

    需求 对给定的先验数据集,使用logistic回归算法对新数据分类代码实现1.定义sigmoid函数 def loadDataSet():dataMat = []; labelMat = []fr = open(d:/testSet.txt)for line in fr.readlines():lineArr = line.strip().split()dataMat.append([1.0, float(lineArr[0]), f…

    2021/7/8 11:11:21 人评论 次浏览
  • BP算法简单实例

    # -*- coding: utf-8 -*- import numpy as np def sigmoid(x):#激活函数return 1/(1+np.exp(-x)) input = np.array([[0.35], [0.9]]) #输入数据 w1 = np.array([[0.1, 0.8], [0.4, 0.6]])#第一层权重参数 w2 = np.array([0.3, 0.9])#第二层权重参数real = np.array([[0.5…

    2021/5/7 20:26:47 人评论 次浏览
共19记录«上一页12下一页»
扫一扫关注最新编程教程