作为一个虚拟现实行业从业者,我当然有很多机会去体验虚拟现实。戴上VR头显,我就进入了另一个世界:我的面前有一张桌子,零散摆放着一些文具;在前面不远的地方是一个显示器,显示着一些画面。我可以扭头去看看我背后都有些什么,也可以凑近去观察桌子上那些文具的细节。这个世界看上去是如此逼真,我都忍不住认为这的确是真实的。可能这就是“虚拟现实”(Virtual Reality)这个名称的源头。在这里,我们可能要问一个问题:如果有一天虚拟现实真的发展到了黑客帝国那种阶段,我们如何才能够分清楚真实和虚幻呢?
这是个很形而上的哲学问题。在这里我们不妨来讨论一下一个现实得多的问题:如何判断一张照片是否被PS过?
PS,Photoshop的简称。我们看到那些杂志上美轮美奂的风景和人物照的时候,我们都会说,这张照片是被PS过的;而每天发在朋友圈的那些自拍照,我们同样知道是被PS过的。它可能调整了曝光,亮度,白平衡,饱和度,颜色曲线,也可能将面孔上的斑点去掉,或者将腿部的线条变得更瘦。总之,使用后期软件,无论是Photoshop还是美图秀秀还是Instagram还是VSCOcam,我们把照片变得更加好看了,然而却更不真实了。
那么,在PS前的照片就真实吗?
人眼是否能看到长曝光的照片?
考虑一下数码相机的视角。相机的原理跟人眼其实是一样的:光子穿过镜头,落在感光芯片上,转化为相应的电信号;相机的电子系统收集电信号,经过算法处理,还原出色彩和亮度,形成我们看到的照片。在这其中,算法要解释,信号的哪一个部分是红色,哪一个部分有多亮,调整从颜色到白平衡的一系列选项;后期软件处理,与相机的机内处理,在逻辑上有什么区别?
更形而上的问题是,从电信号还原成一幅图像,这一系列的处理步骤,到哪一步我们可以称之为“真实”?在那一步之后,再处理就让它变得不真实了?
(星云的颜色从来就不是真实的;它只是为了方便科学家才将波段处理成可见光谱。)
在这个层面上,真实就变成了一个相对的概念:我们对于何为真实的认知,肯定是出自我们自己的世界观。我们会不自觉的将照片与我们通过眼睛看到的景象对比,如果照片中的蓝色和我们看到的天空的蓝色颜色不一样,我们就觉得这张照片是PS过的。但是这里的问题是,相机所看到的世界,是由感光芯片电子系统和软件算法所描绘的世界;而我们看到的世界则是由视网膜视神经系统和大脑所描绘的世界,世界构成的基础就不一样,我们怎么能够认为相机就应该看到与我们看到的一样的世界呢?
扩展到更加科学的领域,可见波长只是光谱里的一小部分,我们看不到红外线和紫外线,更别提长波或者硬X射线。于是红外线紫外线长波和硬X射线就是不存在的么?能看到这些波长的生物或者电子系统就比我们看到的世界更加真实?
那么这里我们可以适当的作出结论:照片本身是无所谓真实与否的,任何照片都是一种世界观的构建。那么我们可以将虚拟现实作为摄影的一个反向过程:摄影是收集光子并且转换为电信号,而虚拟现实则是将电信号转换为光子,最后都还原成人脑中的电信号。
(A区域和B区域是一个颜色么?)
Oculus首席科学家Michael Abrash在OculusConnect 2和F8大会上所做的主题演讲就是关于这个主题——虚拟与真实的界限到底在哪里?他用了一系列的证据展示了一点——我们对于“何为真实”的看法本来就是出于建构,几千万年的进化让我们对于世界本身就有一套已经建立的模型——我们就通过这个模型来观察世界。Abrash举了几个例子:比方说透视完全错误的窗户,因为我们的视觉系统有一个透视关系应该是怎样的基本假设;比方说向内凹的恐龙头模型,因为人类看到脸就会认为脸是往外凸起的;还比方说,在同样的发音下,嘴型的不同就会造成我们的对于发音的认知差异。
Abrash的演讲想要表达的是两件事情:
一,我们并没有彻底理解人类的视觉系统是如何运作的;
二,虚拟现实和真实,并没有哲学上的差别。
所以,在墨菲斯(Morpheus,想想为什么索尼的VR项目会取名为Project Morpheus)问什么是真实的时候,他问了一个元问题。
虚拟现实是真实的吗?它不是。而真实本身是真实的吗?
支付宝扫一扫
微信扫一扫
赏