自建RAG模型和Assistant对比 一、RAG模型RAG模型,基于检索的文档增强式问答,一般流程是: 首先对文档进行分割,分割后的段落使用向量模型进行向量化,向量化之后保存到向量数据库。 然后用户问问题的时候,问题也进行向量化,然后问题向量和段落向量计算相似度,找出topk个段落作为问答的参考。 同时传入问题,参考段落给大预言模型LLM,生成答案。 Assistant 指的是Openai的Assistant助手,主要有3大特点。 2023-12-19
写好LLMprompt提示的总结 一、 Prompt Engineering提示工程1.什么是提示工程? 提示工程(Prompt Engineering)指的是构建和优化AI系统(尤其是大型语言模型)使用的提示词(Prompt)的过程。 提示词是提供给AI系统的简短文本,用于指示其执行特定任务或回答特定问题。良好的提示词可以大大提高AI系统的性能,让其生成更相关、更有用的响应。 2.提示工程的重要性。 提示工程的重要性在于: 提 2023-12-08
开源GPTs 什么是GPTs具有自定义能力的聊天机器人,可以根据文档进行问答,可以使用工具,可以运行代码。使用工具,例如调用搜索引擎搜索数据,调用api查询天气,搜索数据库等,运行代码可以是按需求绘图,按需求计算数学,排列等。 Introducing GPTs (openai.com) 一些分享的GPTs示例: 图片OCR工具: https://chat.openai.com/g/g-L29PpDmgg-ocr 2023-12-05
ChatGPT的GPTs ChatGPT的GPTs的Playgroundupdates: 直到2023年12月11日,Assistant API 还尚不支持stream传输: Stream Assistant Response - API - OpenAI Developer Forum — Stream Assistant 响应 - API - OpenAI 开发者论坛 How Assistants work - Ope 2023-11-16
香氛chat的数据收集工作 一、目的为了构建一个可用于香氛领域推荐和问答的bot,我们首先进行数据收集工作。收集的数据分为2个部分,1是香氛的基础知识。2是香氛的产品知识。基础知识可以用于微调LLM模型,产品知识可以用于RAG数据增强问答。 二、产品知识的数据收集工作为了收集香氛的产品知识数据,我们选择从京东,天猫,香水世代获取数据。 京东,天猫,由于防范能力太强,我们选择半自动获取。我们需要将所需的商品页面保存为html文 2023-11-16
AIGC之视觉和多模态 一、引言如下分享的目的主要是为了拓展AIGC方面的思路和视野,谁也没想到最先应用的计算机视觉方向居然被自然语言处理抢了风头,例如目标检测方向的人脸识别和聊天模型Chatgpt,不过未来的模型一定向合并的趋势,即智能的多模态方向发展。 介绍AIGC,介绍视觉,介绍多模态: AIGC就是人工智能生成内容(Artificial Intelligence Generative Content),也就是让A 2023-11-07
autoagent实现智能问卷调查 一、简介AutoGen是一个框架,它可以使用多个代理进行对话,解决任务,从而实现语言学习模型(LLM)应用程序的开发。AutoGen代理是可定制的、可对话的,并且可以无缝地允许人类参与。它们可以以多种模式运行,包括LLM、人类输入和工具的组合。 AutoGen可以轻松构建基于多代理对话的下一代LLM应用程序。它简化了复杂LLM工作流的编排、自动化和优化。它最大化了LLM模型的性能,并克服了它们的缺 2023-11-01
开发一个智能问卷调查工具 1. 目的开发一个根据用户的需求推荐合适的香氛的智能问卷调查产品。 2. 要求 用户作为问卷后还可以继续提问 可以显示推荐产品的图片 额外辅助人格测试,根据迈尔斯-布里格斯类型指标(Myers–Briggs Type Indicator,MBTI)是由美国作家伊莎贝尔·布里格斯·迈尔斯和她的母亲凯瑟琳·库克·布里格斯共同制定的一种人格类型理论模型。 流式输出,打字机模式 3. 方案制定方案1:使 2023-10-16
7种模型测试情感分析 使用7种模型测试情感分析1. 目的为了优化我们的情感模型,我们准备测试以下7种模型,分别是openai,glm2_6B,baichuan13B,mtdnn,llama13B,llama2_7B,Anima-7B,我们目前没有一个训练集,先测试原始模型的效果。为我们选择一个合适的基座模型做好准备。 模型简介: OpenAI:chatgpt3.5的模型。 GLM2-6B:清华大学的一个开源的双语对话 2023-10-07
flash-attention包的安装 安装flash_attention包https://github.com/Dao-AILab/flash-attention 第1到3步安装比较容易 pip install torch packaging ninja ninja –version # 查看是否安装正常 由于中国下载github的文件太慢,造成了太多阻碍,如果按官方的方式安装,一定会报错, 报错如下 pip install -U f 2023-09-28