最新发布 第13页

徐自远的乱七八糟小站涉及电子,网络,编程,软件使用,机械结构等等方面。

未分类

程序员阿辉:我一朋友在搭建WordPress独立外贸站,一个站一年成本大概500元。 然后他平均一个站一年可以赚3千元的样子,所以现在在批量的建各种商品的外贸站,大概一个星期出一个新站,因为网站太多所以现在用RPA机器人在处理。 我查了一下阿里云那边的价格,主要费用有域名费用69元+虚拟主机298元,以后续费贵几十块钱。 我以前给朋友做外贸独立站一般用Magento来搭建外贸站,太耗服务器资源了,现在也打算改用WordPress来搭建外贸独立站,大家觉得用WordPress做外贸独立站怎么样?一起探讨。

程序员阿辉:我一朋友在搭建WordPress独立外贸站,一个站一年成本大概500元。

然后他平均一个站一年可以赚3千元的样子,所以现在在批量的建各种商品的外贸站,大概一个星期出一个新站,因为网站太多所以现在用RPA机器人在处理。

我查了一下阿里云那边的价格,主要费用有域名费用69元+虚拟主机298元,以后续费贵几十块钱。

我以前给朋友做外贸独立站一般用Magento来搭建外贸站,太耗服务器资源了,现在也打算改用WordPress来搭建外贸独立站,大家觉得用WordPress做外贸独立站怎么样?一起探讨。
程序员阿辉:我一朋友在搭建WordPress独立外贸站,一个站一年成本大概500元。 然后他平均一个站一年可以赚3千元的样子,所以现在在批…https://m.toutiao.com/w/1767507918491712/?app=news_article&...

徐 自远 1年前 (2023-06-06) 217℃ 0喜欢

未分类

侠女论财经:讲真,怎么打消老板想要自研ChatGPT的念头? OpenAI训练175B参数的GPT-3费用:1200万美元, OpenAI训练500B参数的GPT-4费用:1亿美元。 清华国内高校第一,其只能玩6B参数的ChatGLM。 Meta牛不牛?牛到直接把LLaMA 65B开源了。 UC 伯克利,CMU, Stanford, MBZUAI,和UC San Diego五所名校,也只敢在LLaMA基础上进行微调,而且,LLaMA明明有65B的大模型,Vicuna和Alpcaca也只敢玩13B和7B参数的LLaMA。 谷歌牛不牛?它的学徒bard还在无限内测中。 目前LLM多了去了,只有OpenAI一家敢收费,为啥呢,还不是因为GPT-4一骑绝尘。 你细品,Meta的模型的名字中文翻译是:草泥马,Vicuna也是草泥马,Alpcaca也是草泥马,真是绝了,这简直是绝望的怒吼,你懂的。 你再品,谷歌这种AI大牛公司也只敢叫学徒的名字。 如果你对大模型没概念,比如我用廉价的CPU和廉价的内存演示一个很小很小很小的LLaMA 65B。从github上clone vicuna,然后拷贝LLaMA 65B到其model目录,然后运行: python -m fastchat.serve.cli –device cpu –model-path pyllama_data/output/65b,然后内存只要加载了不到一半,内存就撑满了。为了不死机,你只能果断的ctrl+C中止了程序。 这可仅仅是65B的小模型呀,就是用廉价的CPU和内存尚不能演示,更别提训练了。所以说,现在有些老板动不动就说想要自研ChatGPT的念头,显然是不可取的。

侠女论财经:讲真,怎么打消老板想要自研ChatGPT的念头?

OpenAI训练175B参数的GPT-3费用:1200万美元,
OpenAI训练500B参数的GPT-4费用:1亿美元。
清华国内高校第一,其只能玩6B参数的ChatGLM。
Meta牛不牛?牛到直接把LLaMA 65B开源了。
UC 伯克利,CMU, Stanford, MBZUAI,和UC San Diego五所名校,也只敢在LLaMA基础上进行微调,而且,LLaMA明明有65B的大模型,Vicuna和Alpcaca也只敢玩13B和7B参数的LLaMA。
谷歌牛不牛?它的学徒bard还在无限内测中。
目前LLM多了去了,只有OpenAI一家敢收费,为啥呢,还不是因为GPT-4一骑绝尘。

你细品,Meta的模型的名字中文翻译是:草泥马,Vicuna也是草泥马,Alpcaca也是草泥马,真是绝了,这简直是绝望的怒吼,你懂的。
你再品,谷歌这种AI大牛公司也只敢叫学徒的名字。

如果你对大模型没概念,比如我用廉价的CPU和廉价的内存演示一个很小很小很小的LLaMA 65B。从github上clone vicuna,然后拷贝LLaMA 65B到其model目录,然后运行:
python -m fastchat.serve.cli –device cpu –model-path pyllama_data/output/65b,然后内存只要加载了不到一半,内存就撑满了。为了不死机,你只能果断的ctrl+C中止了程序。

这可仅仅是65B的小模型呀,就是用廉价的CPU和内存尚不能演示,更别提训练了。所以说,现在有些老板动不动就说想要自研ChatGPT的念头,显然是不可取的。
侠女论财经:讲真,怎么打消老板想要自研ChatGPT的念头? OpenAI训练175B参数的GPT-3费用:1200万美元, OpenAI…https://m.toutiao.com/w/1767580587826188/?app=news_article&...

徐 自远 1年前 (2023-06-02) 171℃ 0喜欢

苏ICP备18041234号-1 bei_an 苏公网安备 32021402001397号