谷歌浏览器插件
订阅小程序
在清言上使用

LLM-Neo: Parameter Efficient Knowledge Distillation for Large Language Models.

Runming Yang,Taiqiang Wu,Jiahao Wang, Pengfei Hu, Yik-Chung Wu,Ngai Wong,Yujiu Yang

CoRR(2024)

引用 0|浏览3
AI 理解论文
溯源树
样例
生成溯源树,研究论文发展脉络
Chat Paper
正在生成论文摘要