2015/7/13 下午12:06:19 星期一
当前位置: 主页 > 见微知著 >

假如人类要打造终极的bet:矩阵,那么一共需要几步?
时间:2019-05-31 18:40

假如人类要打造终极的矩阵,那么一共需要几步?

时间:03-02 15:53 阅读:4340次 转载来源:人人都是产品经理

AIoT显然的会让数据化程度会更高,每样现实世界里的存在的东西都会拥有自己的数据表示。产生数据的不再主要是人、设备、城市、生活都会进一步的数据化。

距离最终的Matrix,相比互联网,人类又迈出坚实的一步。数据处理方式,人们消费数据的方式必然随之进一步发生变化,恰如由写信到电子邮件再到微信这样的过程。

假如人类要打造终极的矩阵,那么一共需要几步?

第一步是必须形成一个商业成功的,彼此联通的世界。

终极矩阵本身并非是一种产品,而是一种社会形态,所以不太可能是一蹴而就,必然是全社会范围的持续迭代过程。因此起点上商业成功就非常关键,只有如此才能启动技术-产品-商业的持续循环迭代。数据化本身会带来效率的提升,所以一旦开启,那就像潘多拉魔盒一样,只能往前,不能重置,也不能反向推进。

整个互联网以及移动互联网扮演的就是这样一个角色,而近期互联网巨头的to B以及国际化都可以看成是数据化正在侵入原来数据化不充分的低点的信号。从个体来看这背后的核心驱动力是经济诉求,但从全局结果来看,这就是更普及的数据化。

第二步是彻底的数据化,但不彻底的智能。

数据化如果持续产生无用的数据,那应用的层次就无法深入,形象来讲如果回到2000年产生这么多语音数据,那其实没有任何一个公司可以从中创造价值。石油在地下埋藏百千万年,也只有到现代才爆发出真正的价值,所以无效数据等于没有数据。为了利用新传感器产生的数据就需要新的方法。这时候AI扮演了在更深层次使用数据的角色。

与此同时随着传感器的进步和5G的到来,各种设备、家庭生活、甚至整个城市都可以更加实时的进行数据化。这种数据化正在衍生出原本互联网所不需要的细分领域,比如经常提到的人脸识别。人脸识别在互联网或者移动互联网上本质上作用有限,但如果需要一个账户打穿多个设备,人脸识别这样的ID标识技术就会有更广阔的应用空间。

想象这样一种场景:

一个人从北京家里出门的时候正在看西部世界第一季第二集,看到第三十分钟的时候必须出门,否则会赶不上预定的飞机了。当他坐到飞机上的时候,无聊的他就打开了飞机上自带的屏幕,通过人脸识别登入之后,就可以继续从第三十分钟继续观看西部世界(祈祷下,那时候飞机上可以上网了)。

这样的使用场景在之前移动互联网时代是不存在的,移动互联网不同设备具有自己独立的生态。但智能语音交互彻底的改变了这些,它不只改变了交互的方式,事实上也改变了消费信息的方式。在智能语音交互的时候云端只有一份数据,应用彼此之间也不再拥有壁垒,终端实际上肩负起两个责任:一个是ID接入,一个是内容的呈现形式。具体的呈现形式与场景相关,不同场景需要强化不同的传感器,比如家里可能强调就是大屏或者喇叭,车里强调就是与路况结合。这很像是冯诺依曼结构的云端化,输入输出设备是各个终端,而中央处理器和存储则是云端的大脑,不过是设备里的总线变成了5G。

但这个时候应用本身还是有边界的,因为智能的非通用性,不同的公司会在不同的领域里取得比较优势。

第三步则是通用智能下的大融合。

没有通用智能,数据化再彻底本质上还是只能按场景来打造产品,不会形成真正的终极矩阵。但随着通用智能的进步,领域的边界就会越来越薄。这时候通用智能的程度会是、决定一个公司真正的边界。

映射回现实,显然的我们处在第一个阶段已经尾声,第二个阶段刚刚开始的时刻。

AIoT到底会带来什么

当前大家都用AIoT来描述第二步,也就是数据化充分但智能不充分的阶段。那这个阶段和第一个阶段,也就是过去的移动互联网到底那里不同?

所有一切的变化其实起源于四个基本变化:

第一个是传感器以及显示类元器件的突破,这让我们可以更多维度、更清楚的感知周围世界,比如深度摄像头就会比一般的摄像头多感知一个维度,陀螺仪可以感知方向,GPS可以感知位置,MEMS麦克风可以在极小的尺寸上感知周围的声音,激光雷达则可以感知到障碍物,高清大屏则可以让影像更清晰的呈现,VR则可以提供沉浸感,AR则可以让虚拟和真实相融合……虽然有些都是耳熟能详,但如果不进行一定的罗列,很可能我们并不真的知道在2019的这个时刻,传感器家族已经丰富到了如此程度,有的技术并非这两年才出现,但确实是这两年让他们达到了一种可以商业化的程度(感谢手机调动了全社会的资源做相关的优化)。

第二个则是连接速度的持续提升,典型的就是5G。

第三个则是计算能力的持续提升,不单是云计算还包括GPU,乃至持续被提及的量子计算。

第四个则是数据处理方法的提升,也就是我们常说的AI。