调研--模型压缩
2021/4/9 10:55:37
本文主要是介绍调研--模型压缩,对大家解决编程问题具有一定的参考价值,需要的程序猿们随着小编来一起学习吧!
需求
占内存太大:但是没有想明白哪里占?参数?
那就计算一下参数:每个特征哈希出多少个结果
常见方法
- Pruning(修剪): 因为神经网络很多权重几乎为0,这类参数作用不大,部分参数删掉也不影响模型预测效果
- Weight Factorization(权重分解):权重矩阵可以进行低秩矩阵分解,即low-rank matrix factorization,从而使得一些参数为0
- Quantization(削减精度):能用float32,不用float64;能用int,不用float
- Weight Sharing(共享权重):很多layer的参数可以共享,没必要用太多参数
这篇关于调研--模型压缩的文章就介绍到这儿,希望我们推荐的文章对大家有所帮助,也希望大家多多支持为之网!
- 2024-05-15鸿蒙生态设备数量超8亿台
- 2024-05-13TiDB + ES:转转业财系统亿级数据存储优化实践
- 2024-05-09“2024鸿蒙零基础快速实战-仿抖音App开发(ArkTS版)”实战课程已上线
- 2024-05-09聊聊如何通过arthas-tunnel-server来远程管理所有需要arthas监控的应用
- 2024-05-09log4j2这么配就对了
- 2024-05-09nginx修改Content-Type
- 2024-05-09Redis多数据源,看这篇就够了
- 2024-05-09Google Chrome驱动程序 124.0.6367.62(正式版本)去哪下载?
- 2024-05-09有没有大佬知道这种数据应该怎么抓取呀?
- 2024-05-09这种运行结果里的10.100000001,怎么能最快改成10.1?