在本地运行代码时,替换了自己的模型,triu_tril_cuda_template" not implemented for 'BFloat16',该怎么处理

来源:11-2 1-2 在llm__course容器中实现环境安装和SFT演示

慕哥3342747

2024-09-25 16:57:46


写回答

1回答

那位科技大模型算法

2024-09-25

你可以尝试以下步骤:

  1. 确保你的CUDA版本支持BFloat16。BFloat16是在CUDA 11.0及以上版本中引入的,因此你需要确保你的CUDA版本至少是11.0。

  2. 更新PyTorch和transformers库到最新版本。有时候,库的新版本会添加对新数据类型的支持。

  3. 如果你的代码中没有特别需要使用BFloat16,你可以尝试将数据类型改为Float16或Float32,看看是否能解决问题。

  4. 如果问题依旧存在,你可能需要检查你的代码,确保所有的CUDA操作都支持BFloat16,或者考虑向PyTorch社区寻求帮助。

  5. 另外,如果你是在尝试使用特定的模型或者框架,请确保它们与BFloat16兼容。

6. 更换到在云服务器先跑通,使用我们的数据集,这样保证在统一的环境下执行,不然会有各种版本的问题。

0

LLM大语言模型算法特训

从入门-案例实战-多领域应用-面试指导-推荐就业,匹配课前知识路线、详细学习笔记和全方位服务,助力学习与就业,快速实现职业跃迁。附赠价值2000元+的大模型项目代码/数据和配套环境和GPU。

239 学习 · 28 问题

查看课程