微软推出Phi-3 Mini:更小巧、更高效的人工智能模型

快速导读:微软推出了Phi-3 Mini,这是该公司计划发布的三款小型人工智能模型中的第一款。Phi-3 Mini具有38亿个参数,与较大的语言模型相比,它是在更小的数据集上进行训练的。它现在可以在Azure、Hugging Face和Ollama上使用。微软还计划发布Phi-3 Small(70亿个参数)和Phi-3 Medium(140亿个参数)。这些更小的模型提供了更好的性能和成本效益,适用于手机和笔记本电脑等个人设备。

Phi-3 Mini:一个体积紧凑的强大人工智能模型

Phi-3 Mini是微软最新推出的人工智能模型,拥有38亿个参数,并在更小的数据集上进行了训练。这款轻量级模型现在可以在Azure、Hugging Face和Ollama上使用。微软还宣布了Phi-3系列中另外两个模型的计划,分别是Phi-3 Small(70亿个参数)和Phi-3 Medium(140亿个参数)。这些更小的模型提供了更强大的性能,并且更经济实惠,非常适合个人设备使用。

小型人工智能模型的优势

与较大的对应模型相比,像Phi-3 Mini这样的小型人工智能模型具有几个优势。它们在操作上更具成本效益,并在手机和笔记本电脑等个人设备上提供更好的性能。微软专注于开发轻量级人工智能模型与行业趋势相符。除了Phi之外,该公司还创建了Orca-Math,这是一个专门用于高效解决数学问题的模型。包括谷歌和Anthropic在内的微软竞争对手也推出了针对特定任务的小型人工智能模型。

Phi-3 Mini的独特训练方法

Phi-3 Mini的训练采用了一种独特的方法,灵感来自于儿童从睡前故事和简单词汇的书籍中学习的方式。微软的开发人员利用了基于课程的训练方法,利用了超过3000个词汇的列表来教授Phi-3 Mini。虽然Phi-3系列模型具备一般知识,但它无法与在整个互联网上进行训练的较大模型提供的广度相匹配。尽管如此,Phi-3 Mini的改进编码和推理能力使其成为一个体积紧凑的强大人工智能模型。