大模型方向研究是不是很花钱?

大模型方向研究是不是很花钱?

原标题:大模型方向研究是不是很花钱?

关键字:人工智能,大模型,ChatGPT,大语言模型[话题]

最佳回答:商业共识

回答字数:1890字

大模型最大的成本不是钞票,钞票很容易赚,最大的成本其实是机会成本。

那机会成本的本质就是时间成本,走错了又要等十年。

怎么说呢,十年前做互联网,弄个APP啥的,哥几个五十万人民币就能做出好东西。滴滴,第一个版本还是外包的。

但是这一轮AI,好像也跟着美元一起超发通胀了,你没个一个小目标的融资都不好意思跟人说你在做大模型。

能做成AI的好的底座,就那么几个公司,大家小打小闹的做个微调版,去谷歌微软这种送免费算力的地方训练,都得折腾个几十万进去。

过拟合了,加数据加钱。欠拟合了,加函数又加钱。

除了算力花钱,就是数据花钱,还有算法和模型设计,得有很多大牛才行,这也是钱。而且说实话,这模型一但在服务器上跑起来了,你有没有人用,都一样费电。

但是,做AI这个视频的收益也异常可观,一定也会诞生下一个苹果,下一个华为,下一个facebook或者下一个谷歌亚马逊。

做这件事情最大的成本不是钱,而是机会成本。

首先,从企业的角度来看,投资和发展AI技术需要耗费大量的资金、人力和时间。这些资源本可以用于其他项目或领域的开发,因此,企业在选择投资AI时需要权衡不同项目之间的机会成本。押宝押错了,直接死了。

从社会的角度来看,AI的发展也会对就业市场产生影响。一方面,AI的应用可能会提高生产效率,创造新的就业机会;另一方面,AI的发展也可能导致某些传统工作岗位的减少或消失。因此,社会需要在推动AI发展的同时,关注就业转型和培训,以减少潜在的机会成本。这是由整个社会支付的成本,尝尝被忽略了。

此外,AI的机会成本还涉及到数据隐私和伦理问题。为了训练和应用AI模型,需要大量的数据支持。在数据的收集和使用过程中,需要平衡个人隐私和数据利用的合理性,以避免因数据隐私问题而带来的机会成本。这个是一个伦理上的成本,这个事情处理不好,很容易把AI做成了一个监视社会的工具。这属于国之公器,握在私人手里会死人的。

字数凑的差不多了,就简单的做个收尾,AI的机会成本是一个复杂的问题,涉及到资源分配、就业市场和伦理等多个方面。

那机会成本的本质就是时间成本,走错了又要等十年。

看我大半夜的用手机写了这么多字,请允许我水几张图,赚点积分哈。

本文链接:

联系作者

回答作者:商业共识

0

评论0

没有账号?注册  忘记密码?