0
点赞
收藏
分享

微信扫一扫

历史最全模型压缩相关方法、论文、代码等资源整理分享


历史最全模型压缩相关方法、论文、代码等资源整理分享_源地址

    模型压缩就是在尽可能不改变模型效果的情况下,减少模型的体积,使得模型在使用的时候有更快的速度。模型压缩更多地是应用到复杂的深度模型上,并且越来越受到重视,因为当模型的准确度达到一定程度后,如何用更少的硬件成本去做模型服务变的有意义。

    本资源整理了模型量化相关的方法、经典论文、综述论文、介绍性文档和开源代码,供相关研究领域的人使用。

    资源整理自网络,源地址:https://github.com/htqin/awesome-model-quantization

    内容涉及多次跳转,点击文末“阅读原文“”查看资源详情。

目录

内容截图

历史最全模型压缩相关方法、论文、代码等资源整理分享_人工智能_02

历史最全模型压缩相关方法、论文、代码等资源整理分享_源地址_03

历史最全模型压缩相关方法、论文、代码等资源整理分享_计算机视觉_04

举报

相关推荐

0 条评论