ChenMnZ
·
AI & ML interests
model compression
Recent Activity
Organizations
None yet
ChenMnZ/Mistral-Large-Instruct-2407-EfficientQAT-w2g64-GPTQ
123B
•
Updated
•
7
•
25
ChenMnZ/Llama-3-70b-EfficientQAT-w4g128-BitBLAS
Text Generation
•
276B
•
Updated
•
5
ChenMnZ/Llama-3-70b-instruct-EfficientQAT-w2g128-BitBLAS
Text Generation
•
276B
•
Updated
•
7
ChenMnZ/Llama-3-8b-instruct-EfficientQAT-w4g128-BitBLAS
Text Generation
•
29B
•
Updated
•
7
ChenMnZ/Llama-3-8b-instruct-EfficientQAT-w2g64-BitBLAS
Text Generation
•
29B
•
Updated
•
5
ChenMnZ/Llama-3-8b-instruct-EfficientQAT-w2g128-BitBLAS
Text Generation
•
29B
•
Updated
•
5
ChenMnZ/Llama-3-8b-EfficientQAT-w4g128-BitBLAS
Text Generation
•
29B
•
Updated
•
5
ChenMnZ/Llama-3-8b-EfficientQAT-w2g64-BitBLAS
Text Generation
•
29B
•
Updated
•
5
ChenMnZ/Llama-3-8b-EfficientQAT-w2g128-BitBLAS
Text Generation
•
29B
•
Updated
•
4
ChenMnZ/Llama-3-70b-instruct-EfficientQAT-w4g128-BitBLAS
Text Generation
•
276B
•
Updated
•
4
ChenMnZ/Llama-3-70b-instruct-EfficientQAT-w2g64-BitBLAS
Text Generation
•
276B
•
Updated
•
6
ChenMnZ/Llama-3-8b-EfficientQAT-w2g128-GPTQ
Text Generation
•
8B
•
Updated
•
6
ChenMnZ/Llama-3-70b-EfficientQAT-w2g64-BitBLAS
Text Generation
•
276B
•
Updated
•
5
ChenMnZ/Llama-3-8b-instruct-EfficientQAT-w4g128-GPTQ
Text Generation
•
8B
•
Updated
•
5
ChenMnZ/Llama-3-8b-instruct-EfficientQAT-w2g64-GPTQ
Text Generation
•
8B
•
Updated
•
4
ChenMnZ/Llama-3-70b-EfficientQAT-w2g128-BitBLAS
Text Generation
•
276B
•
Updated
•
5
ChenMnZ/Llama-3-8b-instruct-EfficientQAT-w2g128-GPTQ
Text Generation
•
8B
•
Updated
•
11
•
1
ChenMnZ/Llama-3-8b-EfficientQAT-w4g128-GPTQ
Text Generation
•
8B
•
Updated
•
6
•
1
ChenMnZ/Llama-3-8b-EfficientQAT-w2g64-GPTQ
Text Generation
•
8B
•
Updated
•
7
ChenMnZ/Llama-3-70b-instruct-EfficientQAT-w4g128
Text Generation
•
11B
•
Updated
•
8
ChenMnZ/Llama-3-70b-instruct-EfficientQAT-w4g128-GPTQ
Text Generation
•
71B
•
Updated
•
4
ChenMnZ/Llama-2-7b-EfficientQAT-w4g128-BitBLAS
Text Generation
•
26B
•
Updated
•
4
ChenMnZ/Llama-2-7b-EfficientQAT-w2g64-BitBLAS
Text Generation
•
26B
•
Updated
•
6
ChenMnZ/Llama-2-7b-EfficientQAT-w2g128-BitBLAS
Text Generation
•
26B
•
Updated
•
5
ChenMnZ/Llama-3-70b-instruct-EfficientQAT-w2g64-GPTQ
Text Generation
•
71B
•
Updated
•
7
ChenMnZ/Llama-2-70b-EfficientQAT-w4g128-BitBLAS
Text Generation
•
275B
•
Updated
•
5
ChenMnZ/Llama-3-70b-instruct-EfficientQAT-w2g128-GPTQ
Text Generation
•
71B
•
Updated
•
5
ChenMnZ/Llama-3-70b-EfficientQAT-w4g128-GPTQ
Text Generation
•
71B
•
Updated
•
8
ChenMnZ/Llama-3-8b-instruct-EfficientQAT-w4g128
Text Generation
•
2B
•
Updated
•
14
ChenMnZ/Llama-3-8b-instruct-EfficientQAT-w3g128
Text Generation
•
2B
•
Updated
•
10