利用chatgpt接口做超细粒度情感分析 本文主要使用chatpt进行细腻的情感分析我们平常做的情感分析主要是积极,消极和中性,其实积极是一个统称,其实有更细的情感,例如喜欢,爱,信任,祝福都表达的是积极,但是都有一些区别,如果客户需要分析哪些积极的因素,那么就需要更细腻的情感分析,因为人的情感是很复杂和微妙的。下面是简要介绍个人总结的情感分析的粒度和强度介绍: 主要步骤 提取数据 根据任务设计chatgpt的prompt提示 对数据进 2023-05-08
生成语言模型temperature_topp_topk解析 在大型生成语言模型中,我们经常用到这些超参数temperature,topk,topp,下面根据源码进行分析在huggingface transformers中,这3个对分数的处理时串联的,先进行temperature,然后topk,最后topp,当然,如果用户自己定义了分数过滤器,用户的过滤器优先。 temperature越大,随机性越高,因为scores越接近 1234567891011121 2023-04-28 #chatgpt
用lavis实现多模态图文共同检索 多模态检索 我们平常常见的多模态检索是,图到文或文到图的检索, 方式如下:文本和图像之间的视觉-语义相似度任务1: 使用句子查询图像任务2:使用图像查询句子搜索关键字: image-text retrieval 图文共同检索,这个不太常见,主要是利用图片和单独的文本的特征没有一起使用的特征进行检索的效果好,所以图文共同检索,思路如下:图文匹配本质就是要对图像和文本这两个模态的样本分别或联合进行编 2023-04-27
开发bbox标注工具 主要功能 支持上一张,下一张图片翻页按钮 支持bbox的框的绘制,支持bbox的框的移动,bbox的框的缩放,bbox的标签 图片来自本地文件夹,bbox的标注信息保存到本地文件夹 如果已有bbox的标注信息,可以直接加载,继续标注 如果没有bbox的标注信息,会通过bbox的检测算法,自动检测bbox的位置,自动给出一个可能的bbox的标注标签 支持查看搜索目标图像,方便对比标注 设计图示 2023-04-25
transformers_datasets报错 使用huggingface的时datasets报错如下:123456789101112131415multiprocess.pool.RemoteTraceback: """Traceback (most recent call last): File "/Users/admin/miniforge3/envs/py39/lib/python3.9/sit 2023-04-24
使用gradio开图像分类标注工具 利用gradio做一个图像的分类的标注工具 首先使用少量数据训练一个不太准的分类模型(我们测试的是一个检索模型,先训练模型嵌入,然后得到候选向量,查询数据和候选向量进行相似度对比,返回预测结果),写好接口,传入图片后能预测图片的类别 然后自制一个gradio的标注工具,能够读取未标注数据,调用模型接口,预测结果,经过人工判断,是否正确,如果正确,直接点提交按钮,如果不正确,修改成正确的标签左边是方 2023-04-21
对huggingface的训练完成的结果的目录结构进行说明 目录结构├── all_results.json├── config.json├── eval_results.json├── preprocessor_config.json├── pytorch_model.bin├── runs│ └── Apr20_11-09-24_wac209│ ├── 1681960165.2226455│ │ └── events.out.tfeve 2023-04-20
export_ONNX报错 当使用torch导出ONNX模型的时候报错如下for idx, r_split in enumerate(r_splits): TypeError: ‘torch._C.Value’ object is not iterable(Occurred when translating repeat_interleave). 解决方法:更新torch到2.0即可 2023-04-19
peft微调Bloom时报错 报错如下:peft报错RuntimeError: self and mat2 must have the same dtype 明确禁用下8bit训练即可model = AutoModelForCausalLM.from_pretrained( base_model, load_in_8bit=False, torch_dtype=torch.flo 2023-04-18