……
纪弘一看陷入沉思的众人,也是默默的看了一下后台,这么一个程度升级,需要的时间并不长,因为要求确实不高。
纪弘所要的也只视觉效果而已,并没有要求什么全沉浸感知、也没有对人机交互有过高的要求。
之所以这样,是因为纪弘已经尝试过,人机交互,确实没有那么简单。
当然,也有可能是他提供的参考数据和资料太少的缘故——模型的能力是推演,而不是创造,它要做一件事儿,是需要数据支撑的。
而他能提供的数据,都是现实中已经存在的——
无非就是动作和手势之类的隔空操作,比如华为的抓手截屏,r的集中手指交互手势,以及一些眨眼翻页之类的东西。
r还有眼球追踪配合手势的一系列操作。
但这些还是相对复杂,而且效果也不是很好。
初次尝试可能觉得很好玩,咦,我瞪着某个图标,双手一捏,它就打开了,很神奇的样子,但是这么玩儿一个小时试试?还不得累死!
所以,r看似走出了混合显示很神奇的一步,将啊、页面啊什么的都可以虚拟在现实中展示出来,还能有很多的互动,看起来很科幻,但是其实很鸡肋。
这东西也就看个电影电视啥的操作比较简单比较少的场景还有点儿用,玩其他的,尤其是需要频繁操作的东西,那太累了。
人机的交互方式会是限制这一切更进一步发展的关键一环。
纪弘经过一些实验之后,也是意识到,在不直接去读取大脑意识的情况下,哪怕是现在完整版的类思考模型,也没有什么太好的办法。
这里边的问题其实是出现在“人”之上。
人机交互,“机”这样东西,自从它一生产出来,它的性能,它的参数,它有什么功能,能干什么,它的一切数据都固定了,就像刚刚,纪弘把的数据一股脑的直接就提供给了天命,然后它就可以根据技术水准去推测去升级。
但是“人”呢?“人”有什么功能,能干什么?数据又怎么体现?这其中的东西就太复杂了!
复杂到什么程度?可以这么说:人体和宇宙,是现代科技探索最浅显的两样东西!
现在的人机交互,也只是利用了一丁丁点的皮毛罢了,比如:
我的胳膊能抬起来,我的手能做各种动作——在此基础上,人们研发了手势和肢体的各类交互操作。