苹果将通过人工智能能力和大型语言模型提升Siri的功能

快速导读:据报道,苹果正在努力提升其虚拟助手Siri的人工智能能力和大型语言模型(LLM)。此举是在三星Galaxy S24系列手机取得成功和谷歌将生成式人工智能整合到Google助手之后。苹果一直在收购人工智能公司、重组团队并聘请专家来开发iPhone的人工智能能力。重点似乎是在设备上运行基于LLM的任务,类似于谷歌的Gemini Nano模型,以提高速度和隐私保护。苹果的人工智能努力可能会在2024年取得成果,今年有可能推出Siri的人工智能化形象。

谷歌与谷歌助手的巴德整合

谷歌将其生成式人工智能技术巴德整合到谷歌助手中。这使得助手能够接受文本、音频和媒体输入,增强了其多模态能力。此外,带有巴德的助手将被整合到流行的谷歌服务中,如Gmail和Docs。升级后的助手将根据屏幕上的内容具有上下文意识,并相应地执行任务,例如根据当前的照片撰写社交媒体帖子。

苹果的内部LLM和设备上的人工智能方法

苹果正在与哥伦比亚大学合作开发自己的大型语言模型(LLM)Ferret,这表明苹果正在转向使用内部LLM,而不是像Meta的Llama、OpenAI的GPT或谷歌的PaLM这样的许可产品。苹果还专注于在设备上运行基于LLM的任务,类似于谷歌的Gemini Nano模型。这种方法消除了对互联网连接的需求,从而实现更快的操作和更好的隐私保护。

将人工智能整合到更多的苹果应用中

除了增强Siri之外,苹果还计划将生成式人工智能能力整合到更多的应用程序中,例如信息。这将使得魔法撰写、风格建议和实时离线语言翻译等功能在聊天中得以实现。虽然苹果尚未透露有关在其产品中实施人工智能的具体细节,但预计将在即将举行的WWDC开发者大会上展示其进展。对于搭载iPhone 15 Pro的A17 Pro芯片的人工智能能力给予了赞誉,这表明设备上的人工智能和更智能的Siri有着充满希望的未来。