曾几何时,游戏的进化史似乎就是一部“分辨率战争史”。从当年满屏狗牙的480P,到后来标榜高清的720P/1080P,再到如今动辄2K、4K的细腻画质。随着光追(Ray Tracing)和UE5 Lumen技术的落地,一次次让人惊叹于游戏世界已经完全和现实世界没有区别了,曾经作为玩家的我也惊呼“这就是现实”。那时候人们讨论元宇宙,讨论全息模拟,好像现实的增强近在咫尺。
但现在,作为一个游戏从业者和开发者,坐在代码堆里的我却必须承认:那些都是美丽的谎言。
我们并没有模拟光子真实的行为,我们不过用数学“作弊”了,因为如果一个游戏人真的做一款能模拟每一个光子的量子行为,是左旋还是右旋,线偏振还是圆偏振?我们现在顶级的AI用的所有显卡烧坏了也跑不出来一帧,我们永远只是模仿了自然极小的一部分,但那就引入一个问题:为何人眼仍然觉得游戏中的真实感?
答案很简单,也很残酷:因为人类的眼睛,本身就是一个偷工减料的传感器,或者温和点说是个高度压缩过的视觉传输系统。
如果是生物学大佬可以直接跳过这一段,但对于咱们普通玩家来说,这里有个冷知识:哺乳动物的祖先曾经被恐龙压制了长达一亿年。为了在夜间苟且偷生,我们不仅失去了对红色的感知能力(虽然后来灵长类找补回一点),更丢失了大量的光线接收通道——比如方向,比如偏振。
所以你可以想象画面上是1080P或者2K时,人眼只能看到720P,嗯,剩下交给大脑这块超强的显卡(功耗比极高的显卡)疯狂地进行DLSS(深度学习超采样),脑补出了看似4K的画面。但这不代表我们真的看全了。
正因为没有对于偏振光的理解,我们很难理解动物眼中的世界:
蜜蜂能看见偏振光,在它们眼里的天空有一个巨大的光学的导航罗盘,这会指引他们回家的道路;
乌贼的视角下,海水并非纯蓝色,而是几何向量构成的‘线框世界’,在那里人类似乎“隐形”的水母就像是黑夜里发着光的霓虹灯一样明亮。
所以人类需要代码才能调出的Debug View(调试视图)可能在乌贼眼里就是初始的自带的装备一样。
有人肯定要问:既然人眼这么好骗,那在做游戏(比如我现在正头秃的《Project RY》)时,我们怎么在算力有限的情况下,去模拟这些肉眼看不见的复杂光学特性?
这就是游戏开发的魔术。我们用PBR(基于物理的渲染)材质球,用各种Shader(着色器)代码,去欺骗玩家的眼睛。我们不需要计算光的“手性”,我们只需要计算出一个让那块金属看起来“像”金属的结果就行了。
就像利用眼球的弱点和大脑的补完一样,我们不需要制造一个百分百真实的色彩,但是足够覆盖的色域能够解释我们大部分看到一切就是合理,这就是游戏开发的魔术,而我们这里正在一步步把它实现出来,这并非自夸或者自嘲,而是站在整个发达的游戏设计基础上人类的奋斗和努力。
说到这个时代,最离不开的话题就是AI,当然我咨询几个好友的思路又用AI核对一些数据后,才勉强认可这样一个很奇妙的答案,AI的视觉感受器可以做的很精美和发达,能直接感知光的全部信息(包括偏振、手性、红外线、紫外线),在硬件上,它比人类更接近世界的“全貌”。
但是另一方面AI对于图形的认知逻辑却充满了“人工智障”的幽默感。当然最主要是训练的模型数量级太少,模型的框架并不完美,看看那张“鸽子这么大”的梗图,好几个AI给出几个匪夷所思的答案,也是让人觉得“鸽子这么大”的确是对于人类和AI都不是智力考试而是参加搞笑大会了。
不过再一次看到那个被我们修饰的逐渐完美的游戏世界时,我也不经思索起来:我们人类眼中的现实世界,是不是也是一个为了生存而高度简化的“UI界面”?
我们只能感知空气的振动(声音),却听不到对面的信任或背叛;
我们拥挤在一起,却无法通过肉眼感知彼此灵魂的波长。
这么一想,那个著名的“缸中之脑”一下形象变得无比具体和生动,如果现实真的是某个”算法”或者机器高度演算后的阉割版本,那是否在那些我们看不见的偏振光里,在那些被我们的大脑过滤掉的“虚影”中,才藏着这个世界真正的源代码?
评论区
共 条评论热门最新