怎么打消老板想要自研ChatGPT的念头?
OpenAI训练175B参数的GPT-3费用:1200万美元,
OpenAI训练500B参数的GPT-4费用:1亿美元。
清华国内高校第一,其只能玩6B参数的ChatGLM。
Meta牛不牛?牛到直接把LLaMA 65B开源了。
UC 伯克利,CMU, Stanford, MBZUAI,和UC San Diego五所名校,也只敢在LLaMA基础上进行微调,而且,LLaMA明明有65B的大模型,Vicuna和Alpcaca也只敢玩13B和7B参数的LLaMA。
谷歌牛不牛?它的学徒bard还在无限内测中。
目前LLM多了去了,只有OpenAI一家敢收费,为啥呢,还不是因为GPT-4一骑绝尘。
你细品,Meta的模型的名字中文翻译是:草泥马,Vicuna也是草泥马,Alpcaca也是草泥马,真是绝了,这简直是绝望的怒吼,你懂的。
你再品,谷歌这种AI大牛公司也只敢叫学徒的名字。
如果你对大模型没概念,比如我用廉价的CPU和廉价的内存演示一个很小很小很小的LLaMA 65B。从github上clone vicuna,然后拷贝LLaMA 65B到其model目录,然后运行:
python -m fastchat.serve.cli --device cpu --model-path pyllama_data/output/65b,然后内存只要加载了不到一半,内存就撑满了。为了不死机,你只能果断的ctrl+C中止了程序。
这可仅仅是65B的小模型呀,就是用廉价的CPU和内存尚不能演示,更别提训练了。所以说,现在有些老板动不动就说想要自研ChatGPT的念头,显然是不可取的。
来自百度百家号 作者/刘一手看财经,版权归原创