IT之家 11 月 4 日报道,彭博社的马克·加曼 (Mark Garman) 在最新一期 Power On 通讯中透露,苹果在其内部开发的大规模 Siri 模型遇到瓶颈后,决定调整策略,付费给谷歌定制基于 Gemini 的大规模语言模型。据报道,此次合作旨在解决苹果过去在人工智能研发方面遇到的困难。之前的一份报告指出,苹果工程师在开发 Siri 时面临挑战,以便在各种应用程序中可靠、高效地执行任务,特别是在银行等关键场景中。因此,苹果希望引入谷歌成熟的Gemini模型来弥补其在处理复杂AI任务方面的短板,加快Siri的智能进程,并将这项服务进一步包装为苹果的核心技术进行对外推广。根据新的技术架构,Siri的AI任务处理将采用混合模式。对于相关对于非常简单的AI请求,系统利用设备自身的计算资源在设备侧完成请求。对于更复杂的查询,查询会通过无状态加密数据传递到部署在苹果“私有云计算”服务器上的自定义 Gemini 模型进行处理。这种“端云协作”模型不仅利用了更大模型的强大功能,而且还最大限度地保护了您的数据隐私,因为我们的服务器上不存储任何个人信息。更新后的 Siri 包括三个主要组件,可实现更智能的用户交互。查询规划器可以通过调用 Web 搜索、访问个人数据或通过 App Intents 框架激活第三方应用程序的功能,智能地确定用户请求的最佳部署路径。决定打电话的内容。知识检索系统为Siri提供了一个通用的知识库,可以直接回答常识性问题。摘要器利用大型的力量电子规模模型可有效汇总通知、电子邮件、网页甚至音频内容。苹果计划逐步推出这些强大的新人工智能功能。随着 2026 年春季发布的 iOS 26.4 更新,用户有望体验应用内语音控制和基于个人上下文的精准服务等功能。该更新于 2026 年 6 月在全球开发者大会 (WWDC) 上与 iOS 27 一起发布,将带来 AI 技术的“重大”进步,并彻底重塑 Siri 用户体验。
特别提示:以上内容(包括图片、视频,如有)由自有媒体平台“网易账号”用户上传发布。本平台仅提供信息存储服务。
注:以上内容(包括图片和视频,如有)由网易用户上传发布。 e好是一个社交媒体平台,仅提供信息存储服务。