分享
AR 产品的另类之路:听觉增强 + AI
输入“/”快速插入内容
AR 产品的另类之路:听觉增强 + AI
用户33
用户33
2024年7月30日修改
Leon Zhang, July 29, 2024
📍
A full-functioned smart device, designed not for human but for AI.
人体五感(视觉、听觉、嗅觉、味觉和触觉)中,对人有明显增强效果感知的是「
视觉
」,但受限于光学显示和计算处理等技术的发展,现阶段最好的 VR 产品是 Apple Vision Pro,没有第二。
其次是「
听觉
」,之前被 AK 疯狂安利的 Ray-Ban(AR 眼镜),就是走这条路子。Ray-Ban 通过摄像头进行信息采集,再结合 AI,便能够实现 Apple 在 WWDC 2024 上描绘 AI(Apple Intelligence)愿景时的其中一个场景。
1.
Apple Intelligence 的场景举例
在 WWDC 2024 上,Apple 对 Apple Intelligence 的能力描述:
Apple Intelligence 基于你的个人信息和情境,不仅能从你的各种 App 中检索和分析相关程度最高的数据,还会参考设备屏幕上的内容。
举例场景
:比如用户正在查看的邮件或日历日程,假设有一场会议改到了傍晚,而用户想知道开完这场会之后,还能不能赶上女儿的演出?
拆解任务并执行
:Apple Intelligence 就会处理相关的个人数据,来为用户提供协助。 它知道用户的女儿是谁,以及她几天前发来的演出详情,也知道这场会议的时间和地点,并预估客户从公司到剧院的交通状况。
图源 WWDC 2024
2.
Ray-Ban 的应用场景
假如你现在戴着 Ray-Ban,手里拿着 iPhone,然后问 Meta AI 「哪里能买到这款手机的充电器」时,Ray-Ban 眼镜的工作流程可以简化至如下几条,
1.
麦克风捕捉声音信息,并确认语音指令
2.
调用摄像头,并实时捕捉照片信息
3.
将照片发给 Meta AI 进行识别和处理
4.
Meta AI 处理后发现有多个结果(比如充电口可能是 Lightning 或 Type-C)
5.
Meta AI 与你确认手机型号或充电接口类型
6.
确认结果后,获取你的详细位置,然后通过 Google Maps 查询你所在区域的 Apple Store 或者 Apple 授权店位置和距离
7.
默认帮你规划最近的 Apple Store 或者 Apple 授权店的路线,并提供给你出行建议
试想,这种体验真的很棒,难道不是吗?!
图源 Ray-Ban 官网
但对比 Ray-Ban,Apple 的设备掌握着你更多的数据/信息,同时也能调用多个 App 进行交互,理论上能做到更好的体验,所以我很期待 Apple Intelligence,再脑洞一下,如果未来能够在多设备的多 App 上交互,那可真是太棒了!! ❤️