关于新的 Apple AR 设备的几点想法,首先,我更觉得是 AR 而不是 VR 。
其次,很希望 Apple AR 设备是类似于 Hololens 那样的轻量化设备,可以即买即用,配合现有的 Apple 设备就能搭建一个最小化的虚拟的 Apple Home 。
比如说,你戴上 Apple View (随便取的名字),配合 Apple Watch 的手势控制完成遥控,配合 AirPods Max/AirPods Pro/HomePod 空间音频搭建家庭声场,配合你的 iPhone 、iPad 或者 MacBook Pro 甚至 Apple TV 作为不同“主机”。
这样,iPhone 、iPad 、MacBook Pro 、Apple TV 可以实现不同的算力,而 Apple View 眼镜只需要类似 Apple Watch 一样实现数据的简单收集、分析和呈现即可,这样一来,既不用担心设备过重,也不用担心设备过轻而算力不足。
最重要的是,这样只要你家里有 Apple 设备,你就有买 Apple 头戴设备的理由,可以最小化、快速接入 AR 生态,而不是去买一大堆专业设备,配合很强的主机才能完成。
快速、高效又能有一个较好的体验,每个人都能搭建自己的 Apple Home 。不如,就叫 homeOS ?
以上都是自己的瞎想,看看就好。
还有一个小脑洞:
AirPods Max 这个东西推出的很奇怪,一个故意做重的耳麦,还有很贵的价格。会不会是让你提前适应这种佩戴方式和重量,顺便适应一下价格?
1
neutron 2022-01-12 10:53:09 +08:00
Hololens 并不轻量,而且是 All in One 的设计,无需外接设备
Apple Silicon 相比竞品是巨大的优势,大概率也会用在头显产品中 与其它 Apple 设备的同步应该还是基于 iCloud ,再结合 UWB 、BLE 等近场通讯实现实时交互 AirPods Max 不是故意做重的,每个部件都高度轻量化,只是设计、材质和质感限制了重量,而且价格其实非常良心 |
3
murmur 2022-01-12 11:10:07 +08:00
头显用电也很多了,轻量化不是说说而已,除非一根线连到身上,彻底解决续航问题
这 iCord 吧,卖你个 1999 不贵吧,还带序列号的 |
4
liyunlong1123 2022-01-12 11:39:57 +08:00
郭明池刚爆料用了两颗 Apple Silicon ,一颗 5nm ,一颗 4nm ,单颗驱动 8k 的话可以猜测是两个 8k 的屏幕,性能这么强肯定是一体机设计
|
5
geeksammao 2022-01-12 11:44:02 +08:00
你如果想的是在家庭场景使用,那这个设备应该就更偏向娱乐而不是办公,VR 就比 AR 更适合。HoloLens 主要的使用场景也是企业、教育领域。
头戴耳机和头显设备佩戴时的受力点都完全不一样,会买 AR/VR 设备的人 和 买 AirPods Max 的人 也没有多少重合,还是少点“铺路论”吧,就是设计选择导致不得不做重而已。 |
6
murmur 2022-01-12 11:45:15 +08:00
vr 还是不行,视觉再真触觉假,啥时候能模拟各种感官再说吧,cs vr 但凡好玩点我国的军迷也不至于天天玩海绵条还冒着被水表的风险
|
7
Building 2022-01-12 13:26:54 +08:00 via iPhone
虚假的虚拟现实: 必须使用头戴设备
真实的虚拟现实: 植入芯片,与神经系统协同工作 -> 计算机意识觉醒 -> 黑客帝国 -> 你选择蓝色药丸还是红色药丸? |
8
criag OP @geeksammao 如果是可以连接不同的设备,比如在家连接 Apple TV ,在路上连接 iPhone ,在公司连接 Mac ,那么不同场景不同算力,完全可以覆盖家庭和办公需求
|
9
criag OP @neutron Apple Silicon 已经有了,其实如果能把现有的设备利用起来,可以降低门槛,不必再多花钱买高昂的 AR 设备,我是觉得如果能利用现有设备比如 iPad 、MacBook Pro 的 M1 芯片的话,可以更普众一些。
AirPods Max 感觉完全可以做轻,如果说非要用重的材料去设计那么感觉就有点故意做重的嫌疑,当然这个是脑洞了,讨论讨论而已,价格,我觉得还是偏高 |
10
geeksammao 2022-01-12 13:55:35 +08:00 via iPhone
@criag 想的太美好了,现在做单一场景能做好的都凤毛麟角,而且人家还是自带芯片的傻大粗。苹果没有天顶星黑科技的话,能先专注做好一个场景就不错了。
|
11
jZEdn7k4 2022-01-12 14:17:26 +08:00 1
至少现在还不行,实验室有 PHD 专门做 AR 相关的,所以了解一些。你说的“Apple View 眼镜只需要类似 Apple Watch 一样实现数据的简单收集、分析和呈现即可”问题在于 Apple View 的数据采集量和 apple watch 根本不是一个数量级上的,AR 要的是 3D RGB space 还得带深度信息加上时间,等于是 5 维信号,apple watch 采集的基本都是一维信号,量级上差太多了,反过来数据的可视化也同理;此外传输这个体量的数据对延迟和速度要求也比较高,我之前手机临时开热点帮他们试过过 AR 一个固定不变的 CT volume 到病人身上(等于去掉了时间维),即使 CT volume 固定不变,大概 2 小时也要好几 G 的流量,如果是动态变化的那要大得多,3D 视频带深度信息的数据和 AirPods 那种一维声音信号要求的带宽差距太大了;即使数据处理全放到 PC 上,不管是采集、传输、可视化这个体量的数据都挺耗电的,标杆 Hololens2 (体积并不小)一般只能坚持不到 2 小时。
主要就是数据量体量差距太大了,类似的所谓的 remote AR 可以参考微软 hololens 的宣传视频,很多都还是概念期做的也很简单。 |
12
criag OP @jZEdn7k4 嗯嗯,现在来看确实很难实现,但如果说搞一个又大又重的玩意出来,还要连一堆线才能用,那体验也太差了,希望有什么惊艳的东西拿出来吧
|
13
criag OP @jZEdn7k4 或者说,第一步的 Apple View 主要承载呈现功能?
感觉现在 iPad 或者 iPhone 出来的增强现实效果也还行啊,只是需要手持着很不沉浸,要是叠加在眼镜上是不是好些. 数据传输这个的确是很大的问题,我不专业不懂,不知道最近几代苹果相关产品里面有没有类似的信号 |
14
jZEdn7k4 2022-01-12 14:41:52 +08:00
@criag 只考虑输出没有实时环境输入就是 VR 了,augmented reality 的 augmented 就是说你得在实时环境的基础上 augment ,ipad/iPhone 的 AR 的输入就是它的摄像头,从其本身的摄像头到本身的 GPU 再到本身的屏幕之间的带宽应该很够,我估计的得按 GB/s 算。。。如果放弃传输直接用本机的 GPU 的话,那是不是就是做了个眼镜版的 iPhone, lol
|
15
jZEdn7k4 2022-01-12 14:42:54 +08:00
@jZEdn7k4 那这样你说的那种随时切换“主机”的假定是不是就没了,最终还是变成了一个苹果牌的 microsoft hololens
|
16
okakuyang 2022-01-12 17:01:21 +08:00
如果 apple 放弃硬凿,弄个 iOS 版本的 quest2 ,那的确没啥劲。现在看来这种可能性还是挺大的。
现在 VR 定位大多数都是用的头显机载多摄像头实现的定位,这就是 ARkit 干的事情。 ARkit 专注的是单摄像头定位,ARkit 对于多摄像头,强调一种空间地图的共享,合成。 而 Quest2 是利用多摄像头获取更大的视角来捕捉两个手的动作。 这两年 apple 也让 ARkit 支持了人体捕捉,最近还加上了手势和五指识别,以前需要自己集成的功能,现在官方给了。 可以说,现在你上 VR ,就离不开 AR 相关的技术。 但是理想的那种外形和一般近视镜无二的 AR 眼睛,真的是很难,因为显示颜色真的很难,特别是没法解决无法显示黑色的问题。现在大家的解决方法都是造墨镜,阻挡一部分光线来显示深色,但是墨镜终究不适合所有人。 算力和续航真相比,显示效果真的是一道坎,除非苹果弄出可像素级别调整透光率的镜片,才能达到电影里那种效果。 |
18
criag OP @okakuyang 现在看来的确可能第一个版本说不定连差强人意都做不到。
很可能就是个 iOS 版本的 VR 头盔,但我又觉得如果真做成这样发布出来意义不大。 所以要么继续憋一憋推迟发布,要么就搞个可以与现有设备联动的原始版本。 |
19
criag OP “苹果 AR/VR 早起原型设备时,曾计划采用外部处理器的方法解决设备过热问题,并通过无线传输将数据传输至头戴设备。只不过这种设计方案被苹果当时的首席设计官 Jony Ive 否决了。”
|