苹果正在重新规划其增强现实(AR)产品的发展方向。据知情人士透露,公司已决定放缓下一代 Vision Pro 头显的研发进度,转而集中资源加速两款智能眼镜的开发。这一调整标志着苹果对可穿戴设备未来形态的战略再定位——从封闭式沉浸头显,转向更轻便、日常化的 AI 驱动眼镜。
此举也反映出苹果正试图在智能眼镜领域追赶 Meta 的步伐,在一个可能重塑人机交互方式的技术赛道上争夺主动权。
Vision Pro 后继机型被降级,N100 项目搁置
自2024年初发布以来,Vision Pro 虽凭借高分辨率显示和空间计算能力赢得技术赞誉,但其 3499美元的售价 和 笨重设计 导致市场反响冷淡。用户普遍反馈设备佩戴不适、应用生态薄弱、内容支持有限。
原计划中,苹果内部代号为 N100 的第二代 Vision Pro 将是一次全面重构:更轻量化的设计、更低的成本、更强的续航与散热表现,目标在2027年推出。然而,该项目目前已被降级为次要优先级,部分工程师已被调往智能眼镜团队。
尽管如此,苹果仍计划推出一次小幅度升级版 Vision Pro,配备更快的处理器。这一动向已通过近期向美国联邦通信委员会(FCC)提交的新设备认证文件得到间接证实。
聚焦两款智能眼镜:连接 iPhone 的过渡产品先行
苹果当前的重点是两款处于不同开发阶段的智能眼镜:
- N50(无显示屏款)
- 不具备独立屏幕,依赖 iPhone 提供计算能力;
- 功能聚焦音频、语音助手、健康监测与环境感知;
- 目标最早于2025年亮相,2027年前后正式发售。
- 带显示屏型号(对标雷朋Meta)
- 内置微型显示器,支持基础视觉叠加与通知提示;
- 原定2028年发布,现研发进程已提速;
- 将直接竞争 Meta 的雷朋 Display 系列。
这两款产品的推出顺序体现了苹果典型的“渐进式创新”策略:先以低门槛设备教育市场,再逐步引入更复杂功能。
向 Meta 学习:用眼镜铺路 AR 未来
相比之下,Meta 在消费级智能眼镜领域已建立先发优势:
- 2021年推出 雷朋 Stories,集成摄像头与扬声器;
- 2023年升级为 雷朋 Meta,加入AI语音助手、实时翻译等功能,销量迅速攀升;
- 2024年发布首款带显示屏的款式,探索视觉信息叠加场景;
- 计划2027年推出双屏版本,进一步逼近真正意义上的AR眼镜。
值得注意的是,Meta 自身也在调整重心——其混合现实头显 Quest 3 之后暂无新一代产品规划,2025年不再推出新头显,资源全面向眼镜与AI倾斜。
苹果此次转向,正是对这一行业趋势的回应:消费者更愿意接受能融入日常生活的眼镜形态,而非需要“穿戴仪式感”的头显设备。
AI 成关键短板,Siri 改造迫在眉睫
苹果的智能眼镜战略高度依赖 AI 能力 和 语音交互体验,而这恰恰是其目前的短板。
Apple Intelligence 平台推出时间晚于谷歌 Gemini、微软 Copilot 等竞品,且初期仅限英文使用。更为关键的是,Siri 长期存在的理解能力弱、响应迟缓等问题仍未根本解决。
据知情人士透露,苹果正筹备一次重大升级的 Siri 重建项目,预计最早于2025年3月发布。新版 Siri 将作为核心交互入口,支撑包括智能眼镜、HomePod、车载系统在内的多端设备。
硬件方面,这些眼镜将搭载苹果定制芯片,集成摄像头、麦克风阵列、骨传导扬声器,并深度绑定 iPhone 生态。此外,团队还在测试基于传感器的健康追踪功能,如心率监测与活动识别。
库克早有预判:我们是社交的人
早在2016年 Vision Pro 项目启动之初,CEO 蒂姆·库克就曾公开表示:
“很少有人会认为把自己封闭在某物中是可以接受的,因为我们本质上都是社交的人。”
这句话如今正成为苹果产品哲学的重要注脚。相比完全遮蔽视野的头显,开放式的智能眼镜既能提供数字辅助,又不切断与现实世界的联系,更符合大众日常使用习惯。
此前,苹果也曾尝试开发代号为 N107 的有线智能眼镜,用于作为 Mac 的外接显示器,但该计划已被搁置。这表明公司更倾向于优先发展无线、独立使用的消费级产品。
0条评论