离语

semaphore

首页 >> 离语 >> 离语最新章节(目录)
大家在看报告三爷,夫人又去打架了 军嫂又茶又勇,七零军官哄得头痛 她想咸鱼躺,非逼她造反 我法师加奶妈,用七把剑不过份吧 凡人修仙从炼药学徒开始 全球追捕:让你逃亡,你咋还破案 开局变身美少女,诡异竟是我自己 重生八零:媳妇有点辣 假千金靠沙雕带偏了所有人 疯批暴戾九千岁转头对我轻声哄 
离语 semaphore - 离语全文阅读 - 离语txt下载 - 离语最新章节 - 好看的其他类型小说

第297章 睡了睡了

上一章书 页下一章阅读记录

要偏向于更为全面的文献数据。生命周期评价的本质是用来评估产品或服务从生产到消费再到废弃的整个过程对环境和社会的影响,它考虑了资源使用、能源消耗、排放物的产生等方面。那么为了提高最后基于电力LcA这个领域搭建的专业模型的准确度,对文献进行精细筛选,选取同时包括流程图,数据,各单元过程投入产出详细数据,数据时间地点落去方法,技术细节的文献,作为最终的数据。将精细筛选后的论文数据,结合unstructed库进行数据处理。进行信息精细化拆解与清洗,使以pdf形式存储的文献数据通过分割,分区,变成便于嵌入模型的结构化数据。对文字进行筛选与清理,图像的内容进行识别,存储图像的解释信息,表格转化为htmL格式。最后统一变成标题加内容的格式。在这里我列举了简单的数据处理流程。首先是对数据进行分割。随后是对文本进行拆分,识别内容是否为文本,如果是,就填进text_list。将表格转化为htmL格式,将图片变为图片解释信息。第二部分是知识库的构建。向量知识库,能将各类数据(如文本、图像、音频等)转化为向量形式进行存储。数据之间的相似性和关联性得以量化,不像平时你存储你的,我存储我的,向量数据库给予了一个统一的标准。也正是因为统一了格式,利用相似度对比,检索更加高效。构建知识库的流程首先是提取分割文本进行向量化的操作。向量化的本质是将离散的符号信息,如词或句子,映射到连续的向量空间中,以便计算机能够处理。向量化将高维数据转化为低维数据,保留了数据的关键特征又降低了数据的复杂度。选择pipecone存储向量数据,它支持查询,插入,删除等一些列操作。选择weaviate作为向量搜索引擎,可以通过主题的分类检索,进行语义搜索、问答提取等等功能。第三部分是chatbot的构建。先前已经构建好了针对电力LcA领域的专业大模型,但是缺少检验模型的手段,即缺少模型优化环节,本项目设置通过chatbot模式,通过与用户进行问答的形式,检验模型是否能调用电力行业LcA领域向量数据库回答该领域专业性问题和时效性问题的有效性。chatbot是模拟人类对话的一种形式,就我们平时能使到的chatgpt就是以chatbot的形式来呈现的,而chatbot在这里的功能实现主要是为了体现检索功能,大致可分为知识库检索功能和在线搜索。那么就产生了三种检索模式。

仅基于大语言模型,连接知识库搜索,和在线搜索。前端部分我采用streamlit来完成,UI设计如图所示。这边是功能按钮,中间是对话框。先前有讲到了,我们来检测针对专业领域的大模型的标准就是检测是否有能力回答专业领域的问题,并针对结果进行优化。这里我向chatbot提出同一个问题。只采用大语言模型,采用知识库与大语言模型结合,和联网搜索与大语言模型结合。三种功能下获得的回答是完全不同的,后面两个检索功能均为大语言模型优化了生成回答的准确性,对大语言模型的专业领域知识做了补充和改善。可以看到普通的大语言模型回答的是最简短的,采用了知识库的回答,将答案细分,扩充,并添加了新的内容,附上参考文献。最后的联网搜索,将答案分为了几类,更加全面,但是每类回答点到即止。最后就是向量知识库进行优化。对于准确率低的查询,分析模型回应错误的原因。如果是由于知识库中缺少相关信息,可以通过添加更多相关文档和数据来增强向量知识库的覆盖范围。用户反馈是对输入的问题和产生的回答进行记录,方便针对性进行调整。反馈可以直接用于指导向量知识库的更新和优化。不断地测试来完善我的专业领域大模型。最后一部分是我本次研究的总结。首先创建了一个能被大语言模型直接调用的专业知识库,在电力LcA这个专业性较高的领域填补了大语言模型的空白。其次是采用RAG技术,将知识库,联网与大语言模型相结合,增强了大语言模型在特定领域的可信度和实用性。最后就是本次研究虽然是针对电力LcA领域,但其背后的构架适用于各个领域,构建了一个完整的体系,可以进行修改,全方面的辅助大语言模型,应用广泛。以下就是我的全部研究内容请各位老师批评指正。

3.3.2 数据预处理

Unstructured 库是一个强大的工具,专为处理非结构化数据设计,具体流程如图 3.7 所示,

如从文本文档、pdF 文件或网页中提取数据。它支持多种数据提取方法,包括正则表达式匹配、自

然语言处理(NLp)技术等。

数据预处理步骤如下:

步骤一:数据清洗

去除杂质:从文本中去除无关的字符,如特殊符号、空白行等。

格式统一:将所有文本统一为相同的编码格式,通常为 UtF-8,以避免编码错误。

语言标准化:统一不同术语的使用,例如将所有\"photovoltaic\"统一替换为\"pV\",确保术语的

一致性。

步骤二:信息提取

关键信息标识:标识文献中的关键信息,如研究方法、主要结论、实验条件等。

数据分类:根据信息类型将数据分类,如作者、出版年份、研究结果等。

步骤三:结构化转换

结构化处理:将信息精细化拆解与清洗,将各种元素进行转换,形成结构化数据形式,拆分成

标题与内容。

分割部分关键代码:

对于其中的每个元素,如果是 positeElement 类型,就提取其中的文本并将其添加到

text_list 中;如果是 table 类型,就将表格的文本表示(可能是 htmL 格式)添加到

text_list 中。

将图 3.8 的提取的数据进行拆分,添加到 text_list 中,输出结果如图 3.11 所示。

非结构化文本数据通常非常稀疏,即包含大量的词汇但每个文档只使用其中的一小部分。而结

构化数据则可以通过合并相似信息来降低数据的稀疏性,这有助于生成更加紧凑和有效的嵌入向

量。

结构化数据可以实现更高效的特征提取。结构化数据通常已经按照特定的模式或结构进行了组

织,这使得我们可以更加高效地从中提取有用的特征(如标题、作者、摘要、关键词等)。这些特

征可以作为后续 Embedding 的输入,帮助生成具有更强区分性和泛化能力的嵌入向量。结构化数据

中的元素(如主题、类别、属性等)通常具有明确的含义,这些含义可以在 Embedding 过程中被保

留下来。因此,基于结构化数据的嵌入向量往往具有更强的解释性,有助于我们更好地理解模型的

预测结果和内部机制。

上一章目 录下一章存书签
站内强推人生得意时须纵欢 背剑之人 吞天塔 权宠悍妻 傻驴驴驴驴驴驴驴驴 国家请我出狱,我的身份曝光了 被公司开除?我赌石反手收购公司 圣魄魔道 后宫春春色 第一狂妃:废材三小姐 宿主今天又不做人了 我家宿主有盛世妖颜 我有一柄摄魂幡 第一女仙修炼记 慕先生每天都想复婚 新现代逍遥录 后来,我成了最野的狗 足迹遍神州之北京 武侠:邪恶圣人系统 重生之后中奖十亿 
经典收藏疯批小师叔她五行缺德 逼我下乡?科研军嫂搬空你全家 我在遮天修道炼丹 从成龙历险记开始世界冒险 悠闲大唐 直播,宿主切身扮演美强惨 快穿之恶毒反派是笨蛋 一人之下,十二符咒 铁血抗日之屠杀小鬼子 凡人修仙:我有随身灵田 穿越成为娱乐圈神豪 全球高武超凡之路 抗日之开局一条狗 穿越在成龙历险记的世界 开局安陵容,我在甄嬛无限循环 遮天之证道长生 快穿之万人迷女配总是身陷修罗场 你说你惹她干嘛?她五行缺德啊 开挂从全球高武开始 虚空塔 
最近更新反派锦鲤三岁半,被哥哥们追着宠! 九叔世界畅游记 夏夜潮热 当铠降临源氏重工 AI逃杀:我是你机关算尽的漏洞 对啊!我就是神经病 折海棠 快穿宿主太娇媚,男主乖乖被拿捏 落魄领主的我,竟契约了天灾魔女 失身谣言漫天,我靠小叔逆风翻盘 离婚独美后,疯批三爷跪求我原谅 我钓鱼佬,怎么成道家天师了 我能看见气运!闪婚植物人赚疯了 先换嫁,后断亲,渣父母跪地求原谅 误入婚局,我一手送前夫入狱 大唐武周,我教媚娘练【长寿决】 凤引华章 穿越古代苟出富贵人生 冻死冰湖中,我重生独美谋东宫 穿进副本游戏后,干掉boss成功上位 
离语 semaphore - 离语txt下载 - 离语最新章节 - 离语全文阅读 - 好看的其他类型小说