p106吧 关注:20,638贴子:189,003
  • 4回复贴,共1

类ChatGPT新玩具要来了,50hx会迎来春天吗?

取消只看楼主收藏回复

清华开源的,类ChatGPT模型——ChatGLM来啦,最小的模型只有60亿参数,据说模型执行INT4量化以后6G显存都能跑(表示怀疑,估计8G起步)。由于量化以后主要用整数算力,不知道没有阉割整数算力的50hx能不能正常推理,如果能,那到是发挥第二春的机会。


IP属地:江苏1楼2023-03-16 00:37回复
    虽然现在GLM不一定行,但是未来就可能出现几十亿参数级别的,满足阿宅日常需要的模型了。


    IP属地:江苏来自手机贴吧3楼2023-03-16 08:37
    收起回复
      在公司的A40上测试了FP16和INT8量化版本ChatGLM-6B,FP16模型对话后占用14.36G,INT8多轮任务后稳定在8.72GB。晚上回家试试P40如何,不担心显存,主要是担心P40速度不行。


      IP属地:江苏来自手机贴吧8楼2023-03-16 13:22
      收起回复

        图中,上方是P40加载未量化的FP16模型的耗时,下方是P40加载INT8量化的模型的耗时,启动耗时包含了一次预热。问了同一个续写故事问题,
        量化以后无论是启动速度(实时量化加载)还是问答速度都实在太慢,要等待1分多钟...
        实际上量化以后,A40上面启动速度和问答速度也好不到哪里去,同样问题要50秒。


        IP属地:江苏10楼2023-03-16 23:35
        收起回复
          下载的模型大小是12G,模型全部按半精度保存,这个显存占用情况来看半精度浮点数也是原样存储在显存中的。
          去查了一下量化的原理,现阶段INT8只是一种存储方案,最后计算时还是要靠除以一个范围值转换为浮点数的,所以浮点能力残废的卡也不能跑。什么时候模型真基本用整数计算了再说。


          IP属地:江苏来自手机贴吧13楼2023-03-17 09:25
          回复