侠女论财经:讲真,怎么打消老板想要自研ChatGPT的念头?
OpenAI训练175B参数的GPT-3费用:1200万美元,
OpenAI…https://m.toutiao.com/w/1767580587826188/?app=news_article×tamp=1685748970&use_new_style=1&tt_from=system&utm_source=system&utm_medium=toutiao_android&utm_campaign=client_share&share_token=3b781861-a6f1-4ae6-94b9-ab706ccf2531
转载请注明:徐自远的乱七八糟小站 » 侠女论财经:讲真,怎么打消老板想要自研ChatGPT的念头? OpenAI训练175B参数的GPT-3费用:1200万美元, OpenAI训练500B参数的GPT-4费用:1亿美元。 清华国内高校第一,其只能玩6B参数的ChatGLM。 Meta牛不牛?牛到直接把LLaMA 65B开源了。 UC 伯克利,CMU, Stanford, MBZUAI,和UC San Diego五所名校,也只敢在LLaMA基础上进行微调,而且,LLaMA明明有65B的大模型,Vicuna和Alpcaca也只敢玩13B和7B参数的LLaMA。 谷歌牛不牛?它的学徒bard还在无限内测中。 目前LLM多了去了,只有OpenAI一家敢收费,为啥呢,还不是因为GPT-4一骑绝尘。 你细品,Meta的模型的名字中文翻译是:草泥马,Vicuna也是草泥马,Alpcaca也是草泥马,真是绝了,这简直是绝望的怒吼,你懂的。 你再品,谷歌这种AI大牛公司也只敢叫学徒的名字。 如果你对大模型没概念,比如我用廉价的CPU和廉价的内存演示一个很小很小很小的LLaMA 65B。从github上clone vicuna,然后拷贝LLaMA 65B到其model目录,然后运行: python -m fastchat.serve.cli –device cpu –model-path pyllama_data/output/65b,然后内存只要加载了不到一半,内存就撑满了。为了不死机,你只能果断的ctrl+C中止了程序。 这可仅仅是65B的小模型呀,就是用廉价的CPU和内存尚不能演示,更别提训练了。所以说,现在有些老板动不动就说想要自研ChatGPT的念头,显然是不可取的。