现有的AI大模型没有一个能通过图灵测试?

【本文由“guan_17107286732084”推荐,来自《Sora拍片真实体验:大力难出奇迹,全靠人工逐帧后期》评论区,标题为小编添加】

  • 噩梦种子
  • 对,尚未可知,你怎么就知道它会不会是下一个产业革命呢。

    你的话让我想起了我当年学画时候的经历,我当年学画的时候家里人总跟我说,以后学出来去画海报吧,那行挺挣钱的。

    结果,我还没入学呢,大型彩喷打印机开始普及了,海报绘制这一行全体失业。

    等我入学后,学的是广告设计,心想这下行了,你有打印机也得用我的专业。

    然后,我眼睁睁的看着我的一个同学用PS3.0在一个小时不到的时间里面,绘制出了我一下午都画不完的设计作业。

    后来我又改行做装饰设计,为了练出一张合格的手绘效果图,我不到半年的时间画了五百多张景物速写。

    然后,3DSMAX开始在国内普及了。。。。。。。

    当我终于学会3DSMAX开始进入工作,并且自我创业小有成就之后,这两年AI绘图又诞生了。

    所以,我这半辈子以来的经验教训就是,对新技术的产生要保持敬畏,你永远都不知道这个技术会对你的行业带来多大的影响。

    我这半辈子所学到的东西就是,不要排斥新技术,要拥抱新技术,

    当你开始排斥新技术时,那就意味着你开始落伍了,开始走向被行业及社会所淘汰的进程。

   ai有很多用处,但不是资本吹嘘的那样能颠覆这颠覆那,它本质是一个超大型的数据库,以往的数据库受限于硬件处理能力和软件的检索速度,不能存储太多的数据、太多的类型、个位数组合检索条件.

随着硬件能力的提升以及网络传输速度提升才能支持的分布式技术还有一些新型算法的实现,超大型分布式数据库得以实现(类似阿里巴巴后台的那种数据库),这种数据库的数据是天文级别的而且理论上可以无限扩充(只要有无限的硬件),这么多的数据通过指数级的组合条件筛选、过滤、组装总能搞出足够多让人赞叹的东西来,特别是近些年自然语言处理技术让人找到了一部分语言对话的规律(类似科大讯飞那种),将这种规律用于ai对话让人有了ai很智能的错觉,但事实是现阶段ai模型没有一个能通过图灵测试(资本舆论很聪明的不提这一点),所以现在说的所谓“ai”实质上是一个学会了一部分人类说话方式的效率助理,它能帮人类从机械、重复、非创造性、有规律的事物中解脱出来,但无法创造出超出人类经验的事物,它在人类历史中的地位类似于马蹬对于人类早期的骑兵,马蹬能让骑兵作战能力提升,但没有马蹬骑兵还是骑兵就是多休息几次少了一些战术选择而已,并不是火药那种颠覆式的。

事实上现阶段的ai理论基础是神经网络,简单来说就是人类的智能来源于大脑,但大脑的组成单位—神经元却没有智能,而神经元只有简单的几种反射,数以百亿的神经元通过网络的模式组合起来经过训练(人类的学习)就有了智能,虽然人类目前还不知道这其中的奥妙,如果能通过程序的模仿达成目标也算是研究智能的助益(类似黑盒理论),于是就通过封装各种算法形成算子再组合成各种模型(就是前文说的组合条件),算子就是模拟的神经元,模型就是模拟大脑的物理结构,在通过让模型处理数据的方式进行训练(学习),看看最后能不能出现智能,在这个过程中捎带手出现了深度学习和自然语言处理一类的技术,在各类资本无法通过技术进步赚取巨额利润的今天(题外话:资本生来就是要增殖的不增殖就要吃人,这是内卷的根本原因),这些技术被资本们迫不及待的拿来炒作,用来制造虚假的技术差,以骗取巨额利润(割韭菜),近年来好多次来自西方的科技炒作都是这种,比如区块链比如大数据,都是很有用但并不是那么具有颠覆性和高不可攀的技术。

到今天神经网络的研究还没有完成,还是没有搞明白怎样产生智能。现阶段所谓算力硬件,模型训练动辄几千几万台机器规模几百万度电的消耗,都只不过是场资本的狂欢,智能的本质是聪明是效率,相比真正的智能根据一段文字描述写一篇文章耗能最多一个馒头,耗几百度电的能算聪明算智能?高能耗是冯诺依曼结构计算机的天性,高算力必定导致高能耗,按照人类的智力能耗比,冯诺依曼结构的计算机要生成智能所需的能耗只有核聚变才能提供,没法指望这类型计算机产生智能就像没法指望航天火箭烧水洗煤一样,你能说水洗煤不好?它只是推不动火箭而已,要思考,不要被误导。

站务

  • 观网评论4月爆款文章↓

    4月初,美国财长耶伦访华,一时间“中国产能过剩论”被炒作起来,观察者网专栏作者陈经从“三个美国女人”的独特角度,阐释了中国产能包括新能源产能对世界经济的贡献,还对美国政......

全部专栏