微软:GPT-4o-mini只有8B,o1-mini仅100B
关于主流闭源LLM的参数规模一直讨论不断,在2024年最后2天来自微软的一篇关于检测和纠正临床笔记中医疗错误的测试基准MEDEC的研究一不小心直接漏了它们的参数规模:o1preview,GPT4,GPT4o和Claude3.5Sonnet。Claude3.5Sonnet(20241022),175BChatGPT,175BGPT4,约1.76TGPT4o,200BGPT4omini(gpt4o20240513)只有8B最新的o1mini(o1mini20240912)仅100Bo1preview(o1preview20240912)300B实验部分也是将大模型参数规模分为...