苹果考虑Siri的离线模式 iPhone可以用

2021-11-16 13:24:56   编辑:伏固晨
导读新时代无数高科技越来越发达。朋友们看了很多科技新闻。我们也应该在生活中使用很多这些高科技的东西。你的朋友关心什么?今天,我想和大家

新时代无数高科技越来越发达。朋友们看了很多科技新闻。我们也应该在生活中使用很多这些高科技的东西。你的朋友关心什么?今天,我想和大家分享一篇关于科技的文章。我希望你会喜欢它。

使用苹果设备的朋友都知道,苹果的Siri助手的工作原理是:接收用户的命令,然后匿名将接收到的语音发送到苹果的服务器,将语音转换为文本,然后解释用户的命令,并将结果发送到iPhone和iPad。但是这个过程中的语音识别工作非常复杂,需要在苹果的服务器上完成,所以iPhone系列设备可能无法胜任。

考虑苹果Siri的离线模式(图片来自网络)

对于Siri来说,依赖服务器意味着如果没有网络连接,这个虚拟助手就无法工作。虽然“嘿Siri”仍然会触发此服务,但它只能显示离线消息。苹果周四发布的专利申请文件《线下个人助理》显示,未来这种情况可能会改变。

文件显示,无需连接苹果的服务器,语音到文本的处理和验证将在设备上完成。听到用户的请求后,设备将能够通过机载自然语言处理功能确定任务。如果请求的任务是实际的,它将被计算然后执行。苹果公司表示,当没有连接到互联网时,它使用设备上的板载系统来处理对数字助理的请求。它包括语音合成、对话处理、基于默认词汇和用户创建数据的语音到字母转换、自然语言处理等模块。根据识别的单词和查询的结构,离线数字助理可以执行存储在任务流处理模块或服务处理模块中的多个预定义任务。这两个存储包含常见请求的模型,例如设置定时器或播放存储在设备中的歌曲,并根据请求执行相应的任务模型。在应用程序中,苹果表示,它使用机器学习机制来执行某些类型的任务,包括自然语言处理。

这对于系统在没有联网的情况下,基于非常有限的机载数据,理解上下文信息,理解用户想要什么,是非常有帮助的。即使有离线场景的车载处理功能,如果有连接,还是建议保持在线。根据连接的可用性,系统可以以两种不同的方式工作。对本地和远程处理的访问也将为数字助理提供对用户声音的两种可能的解释。在这种情况下,系统将评估两种解释的实用性分数,然后执行分数较高的解释。

这将有效地为助理提供一个替代方案。如果本地处理得不到实际结果,服务器处理结果可以作为备份。如果服务器版本超时或不可用,本地版本仍然可以完成任务。通常,苹果每周都会申请大量专利。虽然专利申请中描述的概念确实指出了苹果感兴趣的领域,但不能保证这样的系统会出现在公司未来的产品中。对于线下Siri来说,苹果走这条路似乎是相当合理的。在最近发布的iPhone中,A系列处理器包含一个神经引擎,用于执行面部识别、身份验证和为相机相关功能供电等计算密集型任务,但也可以用于执行机器学习任务。考虑到2018年iPhone版本使用的第二代神经引擎的强大功能,离线Siri完全有可能利用强大的功能和机器学习能力进行离线处理。离线模式并不是苹果提升Siri的唯一途径。它采用了许多不同的概念来使数字助理变得更好。

10月的一项专利解释了Siri如何通过“声纹”识别特定用户,苹果也在尝试通过个性化响应实现多用户支持。Siri完成了一些与识别能力相关的改进,包括地理语音模型——,帮助解决区域查询和方言口音等问题。消费者更清楚的是iOS 12中引入了Siri快捷键,用户可以自行制作个人Siri命令。

免责声明:本文由用户上传,如有侵权请联系删除!

猜你喜欢

最新文章