MPT-30B是另一个与LLaMA衍生模型竞争的开源大模型。它是由Mosaic ML开发的,并对来自不同来源的大量数据进行了微调。它使用来自ShareGPT Vicuna、Camel AI、GPTeacher、Guanaco、Baize和其他的数据集。这个开源模型最棒的部分是它有8K令牌的上下文长度。
数据统计
数据评估
关于MPT-30B特别声明
本站默惠工业品提供的MPT-30B都来源于网络,不保证外部链接的准确性和完整性,同时,对于该外部链接的指向,不由默惠工业品实际控制,在2024-04-16 下午12:45收录时,该网页上的内容,都属于合规合法,后期网页的内容如出现违规,可以直接联系网站管理员进行删除,默惠工业品不承担任何责任。
相关导航
没有相关内容!
暂无评论...














