离语

semaphore

首页 >> 离语 >> 离语最新章节(目录)
大家在看东北爷们穿成o,carry全场 穿越农家,科举为上 搬空奇葩养母家,假千金下乡了 农家乐小老板 港综:开局死靓仔南,邻居马小玲 小师妹明明超强却过分沙雕 疯批暴戾九千岁转头对我轻声哄 浮光三千里 豪门黑卡刷到爆,躺平摆烂把娃带 斗罗:冲师逆徒,比比东气哭了! 
离语 semaphore - 离语全文阅读 - 离语txt下载 - 离语最新章节 - 好看的其他类型小说

第297章 睡了睡了

上一章书 页下一章阅读记录

要偏向于更为全面的文献数据。生命周期评价的本质是用来评估产品或服务从生产到消费再到废弃的整个过程对环境和社会的影响,它考虑了资源使用、能源消耗、排放物的产生等方面。那么为了提高最后基于电力LcA这个领域搭建的专业模型的准确度,对文献进行精细筛选,选取同时包括流程图,数据,各单元过程投入产出详细数据,数据时间地点落去方法,技术细节的文献,作为最终的数据。将精细筛选后的论文数据,结合unstructed库进行数据处理。进行信息精细化拆解与清洗,使以pdf形式存储的文献数据通过分割,分区,变成便于嵌入模型的结构化数据。对文字进行筛选与清理,图像的内容进行识别,存储图像的解释信息,表格转化为htmL格式。最后统一变成标题加内容的格式。在这里我列举了简单的数据处理流程。首先是对数据进行分割。随后是对文本进行拆分,识别内容是否为文本,如果是,就填进text_list。将表格转化为htmL格式,将图片变为图片解释信息。第二部分是知识库的构建。向量知识库,能将各类数据(如文本、图像、音频等)转化为向量形式进行存储。数据之间的相似性和关联性得以量化,不像平时你存储你的,我存储我的,向量数据库给予了一个统一的标准。也正是因为统一了格式,利用相似度对比,检索更加高效。构建知识库的流程首先是提取分割文本进行向量化的操作。向量化的本质是将离散的符号信息,如词或句子,映射到连续的向量空间中,以便计算机能够处理。向量化将高维数据转化为低维数据,保留了数据的关键特征又降低了数据的复杂度。选择pipecone存储向量数据,它支持查询,插入,删除等一些列操作。选择weaviate作为向量搜索引擎,可以通过主题的分类检索,进行语义搜索、问答提取等等功能。第三部分是chatbot的构建。先前已经构建好了针对电力LcA领域的专业大模型,但是缺少检验模型的手段,即缺少模型优化环节,本项目设置通过chatbot模式,通过与用户进行问答的形式,检验模型是否能调用电力行业LcA领域向量数据库回答该领域专业性问题和时效性问题的有效性。chatbot是模拟人类对话的一种形式,就我们平时能使到的chatgpt就是以chatbot的形式来呈现的,而chatbot在这里的功能实现主要是为了体现检索功能,大致可分为知识库检索功能和在线搜索。那么就产生了三种检索模式。

仅基于大语言模型,连接知识库搜索,和在线搜索。前端部分我采用streamlit来完成,UI设计如图所示。这边是功能按钮,中间是对话框。先前有讲到了,我们来检测针对专业领域的大模型的标准就是检测是否有能力回答专业领域的问题,并针对结果进行优化。这里我向chatbot提出同一个问题。只采用大语言模型,采用知识库与大语言模型结合,和联网搜索与大语言模型结合。三种功能下获得的回答是完全不同的,后面两个检索功能均为大语言模型优化了生成回答的准确性,对大语言模型的专业领域知识做了补充和改善。可以看到普通的大语言模型回答的是最简短的,采用了知识库的回答,将答案细分,扩充,并添加了新的内容,附上参考文献。最后的联网搜索,将答案分为了几类,更加全面,但是每类回答点到即止。最后就是向量知识库进行优化。对于准确率低的查询,分析模型回应错误的原因。如果是由于知识库中缺少相关信息,可以通过添加更多相关文档和数据来增强向量知识库的覆盖范围。用户反馈是对输入的问题和产生的回答进行记录,方便针对性进行调整。反馈可以直接用于指导向量知识库的更新和优化。不断地测试来完善我的专业领域大模型。最后一部分是我本次研究的总结。首先创建了一个能被大语言模型直接调用的专业知识库,在电力LcA这个专业性较高的领域填补了大语言模型的空白。其次是采用RAG技术,将知识库,联网与大语言模型相结合,增强了大语言模型在特定领域的可信度和实用性。最后就是本次研究虽然是针对电力LcA领域,但其背后的构架适用于各个领域,构建了一个完整的体系,可以进行修改,全方面的辅助大语言模型,应用广泛。以下就是我的全部研究内容请各位老师批评指正。

3.3.2 数据预处理

Unstructured 库是一个强大的工具,专为处理非结构化数据设计,具体流程如图 3.7 所示,

如从文本文档、pdF 文件或网页中提取数据。它支持多种数据提取方法,包括正则表达式匹配、自

然语言处理(NLp)技术等。

数据预处理步骤如下:

步骤一:数据清洗

去除杂质:从文本中去除无关的字符,如特殊符号、空白行等。

格式统一:将所有文本统一为相同的编码格式,通常为 UtF-8,以避免编码错误。

语言标准化:统一不同术语的使用,例如将所有\"photovoltaic\"统一替换为\"pV\",确保术语的

一致性。

步骤二:信息提取

关键信息标识:标识文献中的关键信息,如研究方法、主要结论、实验条件等。

数据分类:根据信息类型将数据分类,如作者、出版年份、研究结果等。

步骤三:结构化转换

结构化处理:将信息精细化拆解与清洗,将各种元素进行转换,形成结构化数据形式,拆分成

标题与内容。

分割部分关键代码:

对于其中的每个元素,如果是 positeElement 类型,就提取其中的文本并将其添加到

text_list 中;如果是 table 类型,就将表格的文本表示(可能是 htmL 格式)添加到

text_list 中。

将图 3.8 的提取的数据进行拆分,添加到 text_list 中,输出结果如图 3.11 所示。

非结构化文本数据通常非常稀疏,即包含大量的词汇但每个文档只使用其中的一小部分。而结

构化数据则可以通过合并相似信息来降低数据的稀疏性,这有助于生成更加紧凑和有效的嵌入向

量。

结构化数据可以实现更高效的特征提取。结构化数据通常已经按照特定的模式或结构进行了组

织,这使得我们可以更加高效地从中提取有用的特征(如标题、作者、摘要、关键词等)。这些特

征可以作为后续 Embedding 的输入,帮助生成具有更强区分性和泛化能力的嵌入向量。结构化数据

中的元素(如主题、类别、属性等)通常具有明确的含义,这些含义可以在 Embedding 过程中被保

留下来。因此,基于结构化数据的嵌入向量往往具有更强的解释性,有助于我们更好地理解模型的

预测结果和内部机制。

上一章目 录下一章存书签
站内强推剑道第一魔 少废话,我求你脱了战袍亲亲我! 穿越豪门之娱乐后宫 仙路九万万里 疯批小师叔她五行缺德 凌天诛神录 都市极乐后后宫 民间风水师笔记 萧萧梧叶送寒声 新现代逍遥录 转身,遇见宝藏学姐 为师打不过你,你下山吧! 恐怖末世,我转职为SSSS天师 入狱十年,谁还见义勇为啊 花都太子 重生饥荒年代:我重生有挂我怕啥 破天丹神 穿越大周 空间之山村悠闲 混在豪门泡妞的日子 
经典收藏疯批小师叔她五行缺德 逼我下乡?科研军嫂搬空你全家 全能系统上交后,我直接摆烂 谍战只要我够苟,就没人怀疑我 快穿:可是我只想做个小透明呀 宿主她手拿白月光剧本 穿书七零,外科社牛的下乡日常 凡人诡仙:从兽皮八卦开始 诡异世界:变成妹子对抗诡异 我把任意门上交了 老娘心理学博士,进宫嘎嘎乱杀 暴富!暴美!姐钱多花不完! 一人之下:纯阳剑仙 掠夺诸天,从猪猪侠开始称王 假千金靠沙雕带偏了所有人 被赶出家属院:嫁老男人养崽开摆 美漫:诸天掠夺! 我,一人唤醒诸神上交国家 诸天:从成龙历险记开始 快穿:炮灰当家 
最近更新渣男为白月光高调庆生,我捧骨灰杀疯了 重生安陵容:娘娘万福金安 穿成兽世稀有雌性,她被狠狠爱了 要命啊!开局七个崽,各个黄又瘦 光速重返十六岁 娘耶!我渣爹竟是师徒文男主 实教:D班开局,没有一点上进心 桃花宫之废女绝世 神医小奶团:她也就会治亿点点病 一觉醒来喜当妻 盗墓:修仙无敌,纵横天下 热搜爆炸!满级大佬她重回娱乐圈 剑风传奇:预言之子 一世痛,一世欢 重生零五年,脚踹渣爹拯救恋爱脑妈妈 回到豪门后,女帝成玄学大佬杀疯了 祖辈灵植夫,姐天天猎妖不奇怪吧 远嫁后,我指挥毛茸茸开荒致富 离婚后,顾总找疯了 重生后放弃了白月光 
离语 semaphore - 离语txt下载 - 离语最新章节 - 离语全文阅读 - 好看的其他类型小说