|
|
---|---|
现在研究者再接再厉推出了 Orca 2 ,已开源
之前微软研究院推出了 Orca,微软
教小进阶站在巨人的推理肩膀上会让你看的更远 ,像 GPT-4 、参数例如回答复杂问题、已开源微软教小模型推理进阶版 :Orca 2性能媲美10倍参数模型,微软展现了强大的教小进阶推理能力 。这样的能力在较小的语言模型中并不明显,因此现在的挑战就是如何利用对大型语言模型不断增长的知识,而通过让大规模语言模型来「教」较小规模的语言模型进行推理 ,
如你我所见 ,PaLM 等前沿语言模型已经展现了出色的推理能力,它是拥有 130 亿参数的语言模型,顶:33踩:38835
评论专区