Vision Pro之后,苹果悄咪咪构思智能眼镜

1.jpeg

智能眼镜的作用应该是更进一步拉近人与数字世界的距离。

  刚刚发售的Vision Pro风头正劲,苹果又被宝出正在开发另一款智能眼镜。与Vision Pro头显不同,新款眼镜主打“轻”,支持一整天无负担穿戴。

  爆料的彭博社记者马克·古尔曼在报道中指出,苹果加州库比蒂诺实验室的工程师们最近讨论开发的智能眼镜,外形类似Meta与雷朋合作的智能眼镜,可以提供音频,且能够利用AI和摄像头来识别镜外世界的事物。

  古尔曼认为,可穿戴设备能帮助苹果获得新客户,促进增长。Vision Pro之后,AR+AI似乎给了苹果打造可穿戴设备的新思路。

  潜在的苹果智能眼镜倾向AR技术

  Vision Pro刚刚发售就出现了两极分化的口碑。

  接近4K的画质、超强的交互能力、最优秀的MR(混合现实)体验,都是刚刚拿到货的玩家们给出的优点评价,但他们也发现,Vision Pro又大又重,不适合在长时间使用,集中在面部的重量让脖子的压力很大。

  头显过重、重心靠前成了它的一大弊病。而一个新消息也在Vision Pro的用户体验期出现:苹果正在考虑研发轻量级的智能眼镜。

  与Vision Pro不同的是,爆料中的智能眼镜主打“轻”,外观像普通眼镜一样。在功能上,

  可能类似Meta的雷朋智能眼镜和亚马逊的Echo Frames。而苹果的这款眼镜将提供音频播放,用户无需佩戴AirPods,并可利用AI和摄像头识别周围环境中的物体。

  从彭博社记者马克·古尔曼的报道中看,苹果酝酿的这款智能眼镜更接近增强现实(AR)的路线。

  截至目前,这款智能眼镜正处于苹果硬件工程部门的 “技术调查” 探索阶段。彭博社报道分析,苹果公司去年整体销售额下降,就连苹果曾经火爆的可穿戴设备业务也陷入停滞。因此,苹果不得不有所作为。

  报道指出,在雷朋智能眼镜的初始版本失败之后,最新版本设备的销售情况均好于公司的预期。消费者似乎越来越习惯使用智能眼镜拍摄视频、播放音乐和向聊天机器人发出语音指令。

  Meta已经在智能眼镜硬件中探索AI功能,而苹果可能会积极入场。一个印证是,2023年以来,苹果已经发布了多项有关智能眼镜的国际专利。例如,一项名为“眼镜系统”的国际专利描述了一种系统,该系统将确保 “未来的智能眼镜正确佩戴在您的鼻子上并牢固固定到位,以便将眼动追踪系统和内容正确地呈现给用户”。

  而库克最曾在接受GQ采访时也提到, “你可以用数字世界的东西覆盖物理世界,这种技术可以极大地增强人们的交流和联系。它可以让人们实现他们以前无法实现的事情。”这次采访也透露出库克本人对AR的一些看法,库克并不想让人们脱离现实世界,他和苹果更愿意通过增强现实来增强人们学习、互动和创造的方式。

  混合现实的Vision Pro正践行了库克关于数字虚拟与物理现实的理念,但Vision Pro肯定不会是唯一或最后一款这样理念的产品,正如iPhone之后还有iPad一样,苹果仍然会打造新的硬件链接虚拟与现实,并能在现实世界中做更多事情。

  仔细想想,自手提电话“大哥大”自1973年诞生,人们随身携带手机这样一个手掌大小的机器已有50年,人类与外界交流的方式再次改变也并不是什么新鲜事,眼镜这样的可穿戴设备正是一场新方式、新形态的变革。

  AR+AI撑起智能眼镜新赛道

  当AR眼镜行在发展之路上时,人工智能恰好以大模型的阶段性成果在2023年席卷全球,可穿戴设备+AI成了一个水到渠成的故事。各大科技巨头似乎都瞄准了AI可穿戴设备,尤其是智能眼镜。

  Meta已经将AI功能融入至Ray-Ban智能眼镜。该智能眼镜除了具备实时语言翻译功能外,AI的体现在于能描述用户眼中世界的AI语音助手,一个用例是它能帮助用户选择服饰搭配,告诉用户哪件衬衫适合哪件裤子。

  亚马逊的Alexa团队也曾研发过一款名为Echo Frames的智能音频眼镜,但该设备不支持屏幕显示器或摄像头,它通过每个镜杆内置的四个定向扬声器提供反馈。通过它,用户可以通过对话控制智能家居、接收通知、拨打电话或听音乐。Echo Frames还可以根据周围环境调节内容的音量和反馈。

  在国内,华为也进入了智能眼镜这一赛道。作为一款智能眼镜产品,华为智能眼镜在形态上尽可能的保证了传统眼镜该有的样子。与此同时,华为将“智慧助力”完全隐藏在眼镜中,它支持全天候智慧播报,比如每日重要日程、新闻、天气等重要信息的主动播报,比如当你乘坐飞机、火车时,它会第一时间播报航班、火车信息等等。

  整体看上去,一副智能眼镜不过是添加了耳机功能。在人们的构想里,智能眼镜的作用应该是更进一步拉近人与数字世界的距离,而不仅仅充当一个语音助手,最好能利用视觉能力增强现实应用。

  《元宇宙日爆》编辑部的小伙伴畅想了智能眼镜的功能:“当我在超市购物时,我的眼镜能在视线里帮我比价、扫描商品后告知全面信息”、“我在看外语资料时,眼镜能帮我即时翻译”、“当我看到餐厅的招牌时,眼镜能显示评分和招牌菜”……

  对照这些不失实用的功能,目前的智能眼镜在连接现实与虚拟的能力上还十分有限,要么是提供了第二大屏,要么是增强了音频和语音交互,眼镜的屏显和AI的能力并没有充分交融、发挥最佳组合的效果。

  细细分析智能眼镜的技术元件不难发现,由于AR类眼镜会控制体积和佩戴舒适度,它们留给处理器、摄像头、电池等元件的空间少得可怜。此外,AI大模型还需要有专门适配智能硬件的分支。当然,如果加上AI能力,眼镜们还得加上一个合适的芯片,以便大模型能处理声音、图片、视频等多模态的数字信息。

  不过,这个可穿戴设备的大模型已经出现了。有知情人士透露,OpenAI最近正在将“GPT-4 with Vision”的物体识别软件嵌入到社交公司Snap的产品中,这或许将为Snap的智能眼镜Spectacles提供新功能。

  我们不妨期待一下下一代移动通讯设备的变革,它可能不再是需要用手操作、用眼看、用耳听的手机模样,而能融合视听觉能力、眼动追踪技术的眼镜,的确是能想到的最优方式了。


产品图.jpg

赞 (0)
上一篇 2024年12月04日 01:44
下一篇 2024年12月04日 01:44