模型压缩就是在尽可能不改变模型效果的情况下,减少模型的体积,使得模型在使用的时候有更快的速度。模型压缩更多地是应用到复杂的深度模型上,并且越来越受到重视,因为当模型的准确度达到一定程度后,如何用更少的硬件成本去做模型服务变的有意义。
本资源整理了模型量化相关的方法、经典论文、综述论文、介绍性文档和开源代码,供相关研究领域的人使用。
资源整理自网络,源地址:https://github.com/htqin/awesome-model-quantization
内容涉及多次跳转,点击文末“阅读原文“”查看资源详情。
目录
内容截图