MPT-7B

早前发布了一个开源的大型语言模型MPT-7B,但感觉是开源的最爱。 https://mosaicml.com/blog/mpt-7b ・可用于商业用途 ・可使用 65,000 个代币(是 GPT-4 的两倍!) ・虽然是7B的小型机型,但性能相当高・能应付日文,性能相当高(很重要) 感觉是一个几乎完善了理想的开源LLM,看起来是ChatGPT的不折不扣的劲敌。 对于日语性能,请从下面的演示页面尝试。我现在也能很好地掌握日语。