高通吧 关注:168,558贴子:3,911,241

世界llm大模型算力需求

只看楼主收藏回复

可以看到参数量,国内的大模型仅华为的可用,其他两家太小,但是也不如gpt3.5,gpt4断崖式领先其他家


IP属地:黑龙江来自iPhone客户端1楼2024-02-18 11:23回复
    通义千问看测评还挺强的


    IP属地:福建来自Android客户端2楼2024-02-18 12:41
    回复
      又不是参数越多就一定越好,gpt3.5-turbo才20b,效果比llama2-65b效果还好


      IP属地:海南3楼2024-02-18 12:47
      收起回复
        感觉击垮了华为 中国民用科技领域 拿不出对抗国外的企业 怎么什么都会


        IP属地:山东来自iPhone客户端4楼2024-02-18 13:11
        收起回复
          gbt-4这规模太离谱了吧


          IP属地:上海来自Android客户端5楼2024-02-18 18:00
          收起回复
            是这表格总结的太少了
            国内100b以上的模型至少有20家,ceval榜单上都有十几家了,而且还不是所有厂商都在ceval上提交了结果
            另外国内已经有公司在训1000b级别的moe模型了


            IP属地:北京来自Android客户端6楼2024-02-19 11:42
            收起回复
              一个生成式ai,一个工业大模型,方向都不一样吧


              IP属地:浙江来自Android客户端7楼2024-02-19 17:30
              回复
                百度和讯飞呢


                IP属地:广东来自Android客户端8楼2024-02-19 17:41
                回复
                  ai没初创企业起来光靠这些上一代的通讯互联网企业有什么前途?


                  IP属地:美国来自Android客户端9楼2024-02-19 18:14
                  收起回复
                    华为鸿蒙一亿行代码遥遥领先


                    IP属地:澳大利亚来自Android客户端10楼2024-02-19 20:22
                    收起回复
                      通义千问有100b以上的大模型,目前限时免费开放,用起来比gpt3.5好,不如gpt4


                      IP属地:广东来自Android客户端11楼2024-02-19 20:25
                      回复
                        具体怎么不一样,目前我看不到有人能给出明确答案。目前openai确实通过gpt和sora带来了不小震撼,而国内如华为主打的toB的各类ai产品,像盘古,鸿蒙智行之类的。他们们之间的区别在哪,复杂程度又有何不同,甚至对当前世界产业变革所带来的影响可否分出高下。我不愿被营销号对sora的“震撼”宣传带偏,想看到他们背后的细节


                        IP属地:广东来自Android客户端12楼2024-02-19 20:44
                        回复
                          盘古那个不是工业大模型吗


                          IP属地:广东来自Android客户端13楼2024-02-19 21:03
                          回复
                            智谱和kimi挺强的,gpt3.5现在真不够看了


                            IP属地:福建来自Android客户端14楼2024-02-19 21:18
                            收起回复
                              国内国外思路不一样。老外想做的是通用的大模型。国内做的是行业大模型。老外技术难度更高,国内的落地更快更灵活。


                              IP属地:浙江来自Android客户端15楼2024-02-19 21:53
                              回复