清华大学与瑞莱智慧联合团队推出RealSafe-R1大模型

每经记者 可杨    每经编辑 魏官红    

2月23日,清华大学与瑞莱智慧联合团队(以下简称“清华瑞莱联合团队”)推出大语言模型RealSafe-R1。据悉,该模型基于DeepSeek R1进行深度优化与后训练,在确保性能稳定的基础上,实现了安全性的显著提升。

瑞莱智慧方面表示,连日来,国产开源大模型DeepSeek的优异表现令人惊艳,其在自然语言处理和多任务推理方面的能力展现了强大的技术实力,尤其是在复杂问题解决和创造性任务中表现出色。然而,DeepSeek R1和V3在面对“越狱攻击”等安全性挑战时仍存在一定的局限性。例如,模型可能会被恶意设计的输入误导,生成不符合预期或不安全的响应。这一安全短板并非DeepSeek所独有的难题,而是当前开源大模型的通病,其根本缺陷源于安全对齐机制的深度不足。

为此,清华瑞莱联合团队提出了基于模型自我提升的安全对齐方式,将安全对齐与内省推理相结合,使大语言模型能够通过具有安全意识的思维链分析来检查潜在风险,实现基础模型自身能力的自主进化,可以应用于多种开源、闭源模型。

基于该方法,清华瑞莱联合团队对DeepSeek-R1系列模型进行后训练,正式推出RealSafe-R1系列大模型。据悉,RealSafe-R1各尺寸模型及数据集,将于近期向全球开发者开源。瑞莱智慧首席执行官田天表示,大模型的安全性瓶颈是本质的,只有通过持续投入和攻坚补齐短板弱项,人工智能产业才能真正实现高质量发展。

责编 魏官红

Copyright© 2014 成都每日经济新闻社有限公司版权所有,未经许可不得转载使用,违者必究

互联网新闻信息服务许可证:51120190017  

网站备案号:蜀ICP备19004508号-2  

川公网安备 51019002002025号