cuda_amp torch cuda amp cuda的混合精度torch.cuda.amp.autocast函数:自动将上下文中的计算步骤转换为 FP16 格式,并在计算完成后将结果转换回 FP32 格式,以保证数值精度。需要注意的是,autocast() 只会自动转换支持 FP16 格式的计算步骤,对于不支持 FP16 格式的计算步骤,仍然会使用 FP32 格式进行计算。另外,autocast() 需要与支 2023-03-30
webui报错 升级Webui时报错如下时升级下gradio即可,pip install -U gradio 123456789101112131415161718192021222324252627282930313233343536373839404142434445Traceback (most recent call last): File "/user/stable-diffusion-we 2023-03-29
lavis和transformers的冲突 salesforce的LAVIS包,https://github.com/salesforce/LAVIS是一个多模态的库,其中的BLIP2模块部分和huggingface的trasformers==4.27.1不兼容,不兼容部分是,原因是query_embeds被repeat了维度0两次,所以造成torch.cat拼接时冲突。 123456789101112131415lavis/models/ 2023-03-27
知识点总结 NLP方向总结-其它[NLP方向总结-其它.pdf] NLP方向总结-对比学习[NLP方向总结-对比学习.pdf] NLP方向总结-翻译[NLP方向总结-翻译.pdf] NLP方向总结-多模态[NLP方向总结-多模态.pdf] NLP方向总结-显存优化[NLP方向总结-显存优化.pdf] NLP方向总结-数据结构[NLP方向总结-数据结构.pdf] NLP方向总结-文本摘要[NLP方向 2023-03-21
chatgpt 一、ChatGPT介绍1. 什么是ChatGPT?https://openai.com/blog/chatgpt/ 来自官网介绍: 我们已经训练了一个叫做ChatGPT的模型,它以对话的方式进行互动。对话的形式使ChatGPT有可能回答后续问题,承认自己的错误,挑战不正确的前提,并拒绝不适当的请求。ChatGPT是InstructGPT的兄弟姐妹模型,InstructGPT被训练成能够遵循提示 2023-03-02
多模态项目记录 项目目的,根据给定的图片和标题,判断所属的商品是库中的哪个商品数据标注开发一个前后端,前端标注人员可以根据提供的关键字进行搜索,搜索通过后端调取爬虫平台,实时获取爬取结果,因为爬取不稳定,添加额外缓存系统,当爬取过一次后,可以直接读取缓存,用户也可以不读取缓存,用户标注的结果提交到后台的mongo中保存标注工具示例: 优化: 0. 提交按钮是浮动状态,方便用户下拉选中后也可以提交 1 2022-10-13
一个transformers报错 前提我们在使用huggiface transformers时, 有时会报错transformers报错如下: 12 raise ValueError("got_ver is None")ValueError: got_ver is None 错误分析这是由于transformers使用时,会检查需要依赖的依赖包版本是否满足要求,使用的是importlib_metadat 2022-07-04
满意度预测模型 更多信息参见公众号原文https://mp.weixin.qq.com/s/IHcioj1-i0HzloSQ3gu7tw 实现意义结果: 应该把提升用户满意度的钱花在哪个方面,即产品的哪个属性上,然后再哪个属性上应该提升多少,为提升客户对某产品的整体满意度,对用户评论进行分析,判断出用户对产品的哪些属性的满意度较差,提升哪些属性的产品满意度,能显著影响产品的整体满意度。 实现思路主要分为4个模型 2022-07-04