元象大模型是由深圳元象XVERSE从头训练、全链路自主研发的高性能通用大模型系列,而元象在近日发布了全球首个上下文窗口长度为256K 的开源大模型 XVERSE-Long-256K,支持输入25万汉字,无条件免费商用。
该模型填补了开源生态空白,与元象之前的大模型组成了高性能全家桶。XVERSE-Long-256K 在评测中表现出色,超越了其他长文本模型。通过算法与工程的极致优化,实现了长序列的注意力机制,使窗口长度与模型性能同步提升。
XVERSE-Long-256K 在大规模数据分析、多文档阅读理解、跨领域知识融合等方面有出色的能力,并能推动大模型应用的深层次产业落地。元象还提供了详细的手把手训练教程与技术解析,帮助用户训练长文本大模型。
用户可以在元象大模型官网或小程序中体验 XVERSE-Long-256K。
文明上网,理性发言,共同做网络文明传播者