做国外网站用什么颜色,小红书推广引流渠道,如何做销售直播网站,济南网站建设 力推聚搜网络前言 你好#xff0c;我是GISer Liu#x1f601;#xff0c;一名热爱AI技术的GIS开发者#xff0c;上一篇文章中#xff0c;作者介绍了基于讯飞开放平台进行大模型微调的完整流程#xff1b;而在本文中#xff0c;作者将对大模型微调的数据准备部分进行深入#xff1b;… 
前言 你好我是GISer Liu一名热爱AI技术的GIS开发者上一篇文章中作者介绍了基于讯飞开放平台进行大模型微调的完整流程而在本文中作者将对大模型微调的数据准备部分进行深入 简介 
在上一篇文章中作者详细介绍了如何利用讯飞开放平台进行大模型微调的完整流程。 本文将深入探讨微调过程中的数据准备阶段重点阐述数据处理和微调理论旨在帮助读者更深入地理解微调的本质并鼓励大家基于此理论再次尝试微调模型以优化模型的输出结果。 
本文的核心内容包括 
数据处理思路分析比赛数据结构探讨如何从原始数据中提取和清洗关键信息构建高质量的微调数据集。微调数据分析详细介绍微调数据的输入和输出部分以及如何通过数据分析确保数据清理的高效性。数据处理方案展示如何运用正则表达式、pandas库和LLM提取处理等方法对数据进行清洗和处理最终生成适用于微调的格式。 
通过本文的学习读者将能够掌握从数据准备到模型微调的全过程为实际应用中的模型优化打下坚实的基础。 一、 数据处理思路 
1.赛题分析 根据比赛提供的数据可以看出我们原始数据包含  打开数据可以看到如下字段  这说明我们的数据由以下部分构成 
阅读文本(中、英)题目(中、英)答案(中、英) 
我们需要对这个数据进行处理构建一个微调数据集内容分别是 
input 部分经过数据清洗的阅读文本target 部分经过数据清洗的问答QA对 
而为了制作高质量微调数据集我们就需要对原始数据进行清洗 2.微调数据分析 
为了保证高效的清理数据我们对数据内容进行分析 
①微调数据Input部分 
微调数据的Input部分由两部分组成 
阅读材料用户提示词Prompt 
下图分别是中文的阅读材料和英文的阅读材料   
②微调数据Target部分 
这里我们可以看做将阅读材料和用户提示词一起输入到LLM则LLM会输出符合用户要求的内容这里我们需要LLM输出标准格式的QA对例如下面是一个官方输出的标准案例 
{
1. 以下哪个选项是“具身认知”的定义
A. 认知在功能上的独立性、离身性构成了两种理论的基础。
B. 认知在很大程度上是依赖于身体的。
C. 认知的本质就是计算。
D. 认知和心智根本就不存在。答案B2. 以下哪个实验支持了“具身认知”的假设
A. 一个关于耳机舒适度的测试。
B. 一个关于眼睛疲劳程度的测试。
C. 一个关于人类感知能力的实验。
D. 一个关于人类记忆力的实验。答案A3. 以下哪个选项是“离身认知”的教育观的特点
A. 教育仅仅是心智能力的培养和训练思维、记忆和学习等心智过程同身体无关。
B. 教育观认为身体仅仅是一个“容器”是一个把心智带到课堂的“载体”。
C. 教育观认为知识经验的获得在很大程度上依赖于我们身体的体验性。
D. 教育观认为知识经验的获得在很大程度上依赖于我们大脑的记忆能力。答案A4. 以下哪个选项是“具身认知”带来的教育理念和学习理念的变化
A. 更强调全身心投入的主动体验式学习。
B. 更注重操作性的体验课堂在教学过程中将学生的身体充分调动起来这在教授抽象的概念知识时尤为重要。
C. 更强调教师的教学方法和学生的学习方法。
D. 更注重教师的教学技巧和学生的学习技巧。答案A}{
Which of the following is not a type of art form that Nick Smith uses in his pixelated collages?
A) Painting
B) Photography
C) Embroidery
D) Video art
AnswerC
What does the word Psychology in the title PSYCOLOURGY: January 2015 refer to in relation to Nick Smiths work?
A) The study of human behavior and mental processes
B) The concept of using colour to convey emotions and ideas
C) The use of pixelated images in his collages
D) A specific series of artworks from 2015
AnswerB
Which of the following is true about Nick Smiths career as an artist?
A) He has only worked in the fine arts category
B) His work is primarily focused on interior design
C) He has never used hand-made collages in his work
D) His first collage experiment was inspired by Marilyn Monroe
AnswerD
Which of the following can be inferred about the text employed in Nick Smiths work?
A) It is always narrative and sequential
B) It is often open to interpretation by the viewer
C) It is always written in a specific language or script
D) It is always placed under each swatch of colour
AnswerB
}这里可以看出LLM将阅读材料输出为问题、选项以及答案组成的QA组 ③ 中文数据分析 
为了保证模型训练数据的质量我们需要将官方给定资料中无用的部分过滤掉这里我们对数据进行分析 案例如下 原文 
根据《杜登德语辞典》,语言是一种人类自我表达的能力。如此看来,只有我们人类可以说话,但是如果我们可以知道树木是否也会自我表达,这不是最有趣吗?那么树木会如何说话呢?我们当然不可能听得见,因为它们肯定是静悄悄的,那些强风刮过时才技丫摇摆的嘎嘎声,以及轻风拂面时叶片婆婆的较轻声,都是被动发出的。不过它们确实以另一种方式沟为通:通过气味。在非洲大陆的举原上,金合欢树是长颈鹿的珍馐,为了摆脱这种草食性的庞然大物,金合欢树短短几分钟内就可以在叶子里散布毒素。长颈鹿便会转移到其他树木那里。是旁边的树吗?不。它们会避开邻近的树木,然后在大约100米开外的全合欢树那里重新开始大快朵颐。因为被啃食的金合欢树会花施放一种警示气体,向邻近的同伴传递不速之客来袭的信息。所有得到警讯的树木会立即分泌毒素来回应。长颈鹿因为知道金合欢树的这个把戏,所以会走远一些,以寻找那些尚未知情的树木。又或者它们会逆风而行,因为气味信息是顺着风向其他树木传送的。这样的防卫行为自然需要时间,所以早期预警阶段的工作如何协调就具有决定性的意义,对此,树木当然不能只依赖空气,它也通过根部来传送信息。一棵树白的根可以蔓延得很广,其距离大过树冠宽度的两倍,因此在地底下会与周遭树木的根交错而产生联系。但也有偶然情形,因为森林里也有独行侠,一点也不想与别人有任何瓜葛。所以有没有可能因为这些家伙的不不合群,而导致警示信息被阻断呢?幸好不会。树木为了确保信息能够快速传递,多数情况下都会以真菌为谋介,其作用就像网络光纤那样,纤细的菌丝密布在土壤中,并以我们无法想象的密度交织成网络,借助。其网络,真菌可以把从某棵树得到的信号继续传递下去,帮助它们交换害虫、干旱或其他危险消息。在共同司的生存空间里,可能森林里所有的植物都会以这种方式进行交流。但我们若踏入田野,就会发现所有的绿色植物都很沉默。这是因为人工栽培的植物在育种繁殖的过程中,大多已经失去这种在地面或地下进行沟通的能力。它们几乎是又哑,因此特别容易成为昆虫的猎物。而这自然也是现代农业必须使用这么多多农药的原因之一,或许今后育种专家应该要多多少少再从森林里剽窃一点野性基因,例如把多嘴这个属性加入谷物及马铃薯的品种里。虽然我一开始时说过树木是静悄悄的,但这点从最新的发现来看却值得质疑。一些研究人员想测试地底下是不是可以听到什么声音,不过要想把树木带进实验?室里有点不切实际,因此他们观察的对象是谷物幼苗。果不其然!仪器很快就记录到了由根部发出的轻响,频率约220赫兹。而且有趣的是没有参与实验的幼苗对它也会起反应--在播放着频率约220赫兹声响的环境里,这些幼苗的顶端总会往声源方向生长,这意味着禾本科草类可以察觉到,或是干脆直接说听到这个频率。所以,植物可以通过声波来交换信息?我还没想过这可能代表着什么,因为这一领域的研究才刚刚起步。不过下次当你漫步在森林里,那些林间传来的塞牢细响,说不定不只是因为风......
(摘编自彼得·渥雷本《树的秘密生命》,钟宝珍译)选项 
4.下列对原文相关内容的理解和分析,正确的一项是(3分)
A.叶片婆娑的簌簌声以及谷物幼苗根部发出的轻响,都属于植直物被动发出的声音,而并非是它们在通
过声波交换信息。
B.当金合欢树被长颈鹿啃食时,它既会分泌出毒素进行自我防卫,也能够通过施放气体向邻近的其他
树木发出警告。
C.树木凭借流动的空气可以做到早期的预警,但是这种预警需要的的时间较长,因此气味语言一般
作为一种辅助手段。
D.森林中的独行侠由于失去了与其他植物进行沟通的能力,无法意识到步步逼近的灾难,因而终将沦
为昆虫的大餐。
5.下列对原文相关内容的分析和评价,正确的一项是(3分)
A.作者认为,《杜登德语辞典》将语言定义为一种人类自我表达的能力并不全面,其
实树木也可以通过特定的语言进行沟通。
B.下面的发现可以作为证明第一段中心观点的材料:当昆!虫啃噬橡树时,橡树为了自救会把苦
涩且具有毒性的单宁酸导入树皮与叶子中。
C.第二段中的多嘴以及第三段中的听到,这两处使用的引号有表示特殊含义的作用,
这种用法与第段中的语言具有明显的不同。
D.作者在介绍禾本科草类的科学实验和地下真菌网络时,都使用了打比方和举例子的说明方法,
这使本文的内容更准确、更科学,也更具说服力。
6.与野生植物不同,人工载培的植物要经常喷洒浓药,这给我我们带来哪些思考?(6分)答案 
4.B
5.C
6.①在育种繁殖的过程中应采取措施恢复人工栽培植物在地面或地下的沟通能力从而提高抵抗病虫害的能
力减少农药的使用量.
②育种专家可借鉴自然野生植物的野性基因如把利用气味传递信息等属性加入人工栽培植物的属性中去。对于原文部分无明确格式要求无需处理可以直接使用 
选项和答案 需要去掉题目中的打分分值如6分  
④英文数据分析 
阅读文本 
Bike Rental  Guided Tours Welcome to Amsterdam, welcome to MacBike. You see much more from the seat of a bike! Cycling is the most
economical, sustainable and fun way to explore the city, with its beautiful canals, parks, squares and countless lights.
You can also bike along lovely landscapes outside of Amsterdam.
Why MacBike MacBike has been around for almost 30 years and is the biggest bicycle rental company in Amsterdam. With over 2,500 bikes stored in our five rental shops at strategic locations, we make sure there is always a bike available for you. We offer the newest bicycles in a wide variety, including basic bikes with foot brake (AU 4), bikes with hand
brake and gears (HI-I4), bikes with child seats, and childrens bikes.                                                                       Price: 1 hour, 3 hours, 1 day(24hours), Each additional day                                                                                          Hand Brake, Three Gears: €7.50, €11.00, €14.75, €8.00                                                       Foot Brake, No Gears: €5.00, €7.50, €9.75, €6.00                     The 2.5-hour tour covers the Gooyer Windmill, the Skinny Bridge, the Rijksmuseum, Heineken Brewery and much more. The tour departs from Dam Square every hour on the hour, starting at 1:00 pm every day. You can buy
your ticket in a MacBike shop or book online.选项 
21. What is an advantage of MacBike?
A. It gives children a discount.
B. It of offers many types of bikes.
C. It organizes free cycle tours.
D. It has over 2,500 rental shops.
22. How much do you pay for renting a bike with hand brake and three gears for two days?
А. €15.75.
B. €19.50.
C. €22.75.
D. €29.50.
23. Where does the guided city tour start?
A. The Gooyer, Windmill.
C. Heineken Brewery.
B. The Skinny Bridge.
D. Dam Square.答案 
21. B. It offers many types of bikes.       22. D.  €29.50.      23. D. Dam Square.            同上阅读文本不用考虑格式只需要考虑选项和答案 这里题目中选项用ABCD序号分开但是有些答案有文字解释需要思考怎么把答案选项从答案中抽取出来。 3. 数据处理方案 
① 数据清洗方法 
为了高效地从数据中提取和清洗关键信息我们采用了以下三种主要方法 
正则表达式利用正则表达式在文本预处理中的强大功能例如精确提取特定模式、高效替换字符串等确保数据的准确性和一致性。pandas库借助pandas库在数据清洗和处理中的广泛应用如数据框操作、缺失值处理、数据转换等提升数据处理的效率和质量。LLM提取处理虽然速度较慢但LLM大型语言模型提取处理能够提供高质量的数据清洗结果。通过提示词工程或API厂商提供的Json模式实现经济实惠且高效的数据清洗尽管在处理速度上稍显不足。 
② 处理目标 
数据清洗与处理 使用pandas库分别读取Input和Target数据并进行细致的数据清洗确保数据的纯净度和可用性。数据合并将清洗后的中文和英文数据进行整理合并为一个结构化的dataFrame便于后续的数据分析和处理。导出与格式转换将最终的dataFrame存储为csv或Jsonl格式以便无缝上传至讯飞开放平台进行模型的微调为模型的优化和提升奠定坚实的基础。 
③处理流程 这里参考datawhale的本期task2的流程图 二、 微调流程介绍 
1. 大模型概念 
这里参考作者过去撰写的这篇文章即可文章传送门 
2. 微调介绍 
①什么是模型微调 根据你提供的资料和参考链接以下是完善后的“微调流程介绍”部分的内容。这个部分将结合你的大纲结构和提供的内容补充必要的细节以确保完整性和实用性。 二、微调流程介绍 
1. 大模型概念 
关于大模型的概念部分读者可以参考作者之前撰写的文章 文章传送门这里不再赘述。 
2. 微调介绍 
① 什么是模型微调 
模型微调Fine-tuning是指在已经预训练好的大模型基础上针对特定任务和数据集进行进一步的训练以便模型能够更好地适应特定的应用场景。预训练模型通常在大规模数据集上进行训练具备了较为通用的特征提取能力而微调则是在此基础上通过少量数据进行专门训练使模型能够处理更细化的任务。 ② 两种微调范式 增量预训练微调Continue PreTraining 使用场景适用于需要让基座模型学习新领域知识的情况如某个垂直领域的常识。训练数据可以使用文章、书籍、代码等领域相关的文本数据。优点通过让模型吸收特定领域的新知识提高模型在该领域的表现。  指令跟随微调Supervised Finetuning 使用场景用于让模型学习特定的对话模板或应对特定指令的能力例如聊天机器人根据人类指令进行对话。训练数据通常是高质量的对话和问答数据。优点模型能够更好地理解和响应人类指令适应性更强。  我们当前构建选择题生成就是相当于指令跟随微调用于生成指定格式的输出 ③ 为什么要微调 
节省资源相比从头开始训练微调可以大幅减少计算资源和时间并且有时还能提高模型的准确率。增强适应性预训练模型虽然在大型数据集上进行了训练但并不总能适应特定任务。微调能帮助模型在新任务上表现更好。 
④ 什么情况下使用微调 
数据集相似度当你的任务数据集与预训练模型的数据集相似时微调效果最好。相似度低的情况下微调效果可能不如预期。资源限制如果计算资源有限微调是比从头训练更好的选择。模型准确率如果你使用的模型在现有任务上准确率不高通过微调可以提高模型性能。 
不同数据集下的微调策略 
数据量少、数据相似度高只需修改最后几层的权重例如修改Softmax层的输出类别。数据量少、数据相似度低冻结预训练模型的前几层只对剩余的几层进行重新训练。数据量大、数据相似度低这种情况下最好从头开始训练模型Training from scratch。数据量大、数据相似度高这是最理想的情况使用预训练模型的权重进行微调效果最佳。 
⑤ 微调的注意事项 
调整最后一层通常需要截断预训练网络的最后一层并替换为与新任务相关的Softmax层。使用较小的学习率微调时使用较小的学习率可以避免破坏预训练模型已经学到的权重。冻结部分层数当数据集较小或中等时可以考虑冻结预训练模型的前几层只训练后续层。 
3. LORALow-Rank Adaptation 
① 概念 
LORALow-Rank Adaptation是一种高效的微调方法旨在通过引入低秩矩阵减少模型参数的微调成本从而降低硬件要求并提高训练效率。 
② 原理 
LORA通过在模型中引入低秩矩阵专门对这些矩阵进行微调同时保持原始模型的大部分权重不变。这种方法能够显著减少需要调整的参数数量进而减少计算负担。  如果一个大模型是将数据映射到高维空间进行处理这里假定在处理一个细分的小任务时是不需要那么复杂的大模型的可能只需要在某个子空间范围内就可以解决那么也就不需要对全量参数进行优化了我们可以定义当对某个子空间参数进行优化时能够达到全量参数优化的性能的一定水平如90%精度时那么这个子空间参数矩阵的秩就可以称为对应当前待解决问题的本征秩intrinsic rank。 预训练模型本身就隐式地降低了本征秩当针对特定任务进行微调后模型中权重矩阵其实具有更低的本征秩intrinsic rank。同时越简单的下游任务对应的本征秩越低。Intrinsic Dimensionality Explains the Effectiveness of Language Model Fine-Tuning因此权重更新的那部分参数矩阵尽管随机投影到较小的子空间仍然可以有效的学习可以理解为针对特定的下游任务这些权重矩阵就不要求满秩。我们可以通过优化密集层在适应过程中变化的秩分解矩阵来间接训练神经网络中的一些密集层从而实现仅优化密集层的秩分解矩阵来达到微调效果。  ③ 优势 
高效切换任务LORA可以针对不同任务构建小型模块实现任务之间的快速切换。低硬件门槛通过减少参数数量LORA降低了对硬件资源的需求适合资源有限的环境。无推理延迟LORA设计简单在部署时可将可训练矩阵与冻结权重合并不会引入额外的推理延迟。与其他方法兼容LORA可以与其他微调方法结合进一步优化模型性能。 
详细步骤 数据准备首先需要根据任务需求准备训练数据。确保数据经过清洗和预处理能够被模型正确加载。  模型加载使用预训练模型作为基础通常可以通过模型库如Hugging Face Transformers加载模型。  微调参数设置根据任务和数据集设置微调参数包括学习率、批量大小、训练轮数等。  训练与验证进行模型训练并在验证集上监控模型性能以确保模型没有过拟合。  
4. 微调实践 
完整代码如下 
import pandas as pd
import re
import json# 通用函数删除空格和换行符
def remove_whitespace_and_newlines(input_string):result  input_string.replace( , ).replace(\n, ).replace(., )return result# 通用函数提取答案
def get_answers(text):text  remove_whitespace_and_newlines(text)pattern  re.compile(r(\d)\s*([A-D]))matches  pattern.findall(text)res  []for match in matches:number_dot, first_letter  matchres.append(first_letter)return res# 通用函数提取问题和选项
def get_questions(text):text  text.replace(\n,   )  pattern  re.compile(r(\d\..*?)(A\..*?\s{2})([B-D]\..*?\s{2})([B-D]\..*?\s{2})(D\..*?\s{2}), re.DOTALL)matches  pattern.findall(text)questions_dict_list  []for match in matches:question, option1, option2, option3, option4  matchpattern_question  re.compile(r(\d)\.(.*))question_text  pattern_question.findall(question.strip())[0][1]options  {option1[0]: option1, option2[0]: option2, option3[0]: option3, option4[0]: option4}question_dict  {question: question_text,options: {A: options.get(A, ).strip(),B: options.get(B, ).strip(),C: options.get(C, ).strip(),D: options.get(D, ).strip()}}questions_dict_list.append(question_dict)return questions_dict_list# 生成英文提示文本
def get_prompt_en(text):prompt  f你是⼀个⾼考选择题出题专家你出的题有⼀定深度你将根据阅读文本出4道单项选择题包含题目选项以及对应的答案注意不⽤给出原文每道题由1个问题和4个选项组成仅存在1个正确答案请严格按照要求执行。
The reading text is mainly in English. The questions and answers you raised need to be completed in English for at least the following points:### 回答要求(1)Understanding the main idea of the main idea.(2)Understand the specific information in the text.(3)infering the meaning of words and phrases from the context### 阅读文本{text}return prompt# 处理英文数据集
def process_en(df):res_input  []res_output  []for id in range(len(df)):data_options  df.loc[id, 选项]data_answers  df.loc[id, 答案]data_prompt  df.loc[id, 阅读文本]data_options  get_questions(data_options)data_answers  get_answers(data_answers)data_prompt  get_prompt_en(data_prompt)if len(data_answers)  len(data_options):res  for id, question in enumerate(data_options):res  f{id1}.{question[question]}{question[options][A]}{question[options][B]}{question[options][C]}{question[options][D]}answer:{data_answers[id]}\nres_output.append(res)res_input.append(data_prompt)return res_input, res_output# 读取并处理英文数据集
df_en  pd.read_excel(训练集-英语.xlsx)
df_en  df_en.replace(, ., regexTrue) \.replace(А., A., regexTrue) \.replace(В., B., regexTrue) \.replace(С., C., regexTrue) \.replace(D., D., regexTrue)en_input, en_output  process_en(df_en)# 生成中文提示文本
def get_prompt_cn(text):prompt  f你是⼀个⾼考选择题出题专家你出的题有⼀定深度你将根据阅读文本出4道单项选择题包含题目选项以及对应的答案注意不⽤给出原文每道题由1个问题和4个选项组成仅存在1个正确答案请严格按照要求执行。
The reading text is mainly in Chinese. The questions and answers you raised need to be completed in Chinese for at least the following points:### 回答要求(1)理解文章的主要意思。(2)理解文章中的具体信息。(3)根据上下文推断词语和短语的含义。### 阅读文本{text}return prompt# 处理中文数据集
def process_cn(df):res_input  []res_output  []for id in range(len(df)):data_options  df.loc[id, 选项]data_answers  df.loc[id, 答案]data_prompt  df.loc[id, 阅读文本]data_options  get_questions(data_options)data_answers  get_answers(data_answers)data_prompt  get_prompt_cn(data_prompt)if len(data_answers)  len(data_options):res  for id, question in enumerate(data_options):res  f{id1}.{question[question]}{question[options][A]}{question[options][B]}{question[options][C]}{question[options][D]}answer:{data_answers[id]}\nres_output.append(res)res_input.append(data_prompt)return res_input, res_output# 读取并处理中文数据集
df_cn  pd.read_excel(训练集-中文.xlsx)
cn_input, cn_output  process_cn(df_cn)# 数据集整合
df_new  pd.DataFrame({input: cn_inputcn_input[:30]en_inputen_input[:20], output: cn_outputcn_output[:30]en_outputen_output[:20]})# 数据集格式转换导出
# 打开一个文件用于写入 JSONL并设置编码为 UTF-8
with open(output.jsonl, w, encodingutf-8) as f:# 遍历每一行并将其转换为 JSONfor index, row in df_new.iterrows():row_dict  row.to_dict()row_json  json.dumps(row_dict, ensure_asciiFalse,)# 将 JSON 字符串写入文件并添加换行符f.write(row_json  \n)# 打印确认信息
print(JSONL 文件已生成) 三、模型训练 
完成数据准备后我们就可以利用这些数据进行模型的微调训练。这里使用了 Spark A-13B 的预训模型这里的步骤和上一篇文章一模一样按照流程使用即可 
1. 上传数据集 
首先我们进入讯飞开放平台官网网页点击新建数据集  这里我们配置一下数据集的相关信息  接着我们上传之前制作的数据集并且选择正确的问题和答案字段  等待数据集上传成功然后开始训练  
进入训练配置界面我们配置模型名称预训练模型学习率数据集等信息  等待模型训练成功这个过程需要至少30分钟这里我们可以喝杯咖啡等待一下   如果大家没有应用请到 https://console.xfyun.cn/app/myapp 点击创建创建一个。 点击发布。稍等片刻模型即可发布成功内容如下  
这个界面我们可以可以看到我们发布模型的相关参数我们要保存好以下参数用于后续测试使用 
serviceId---------
resourceId-----------
APPID:------
APIKey:---------
APISecret:------------至此模型训练部分完毕 四、本地测试 
模型训练完成后我们需要对模型进行本地测试确保其生成的题目符合预期。 
以下是本地测试的代码通过向模型提供一个 prompt我们可以查看模型生成的题目和答案。 
from sparkai.llm.llm import ChatSparkLLM, ChunkPrintHandler
from sparkai.core.messages import ChatMessageSPARKAI_URL  wss://xingchen-api.cn-huabei-1.xf-yun.com/v1.1/chat
#星火认知大模型调用秘钥信息请结合飞书文档前往讯飞微调控制台https://training.xfyun.cn/modelService查看
SPARKAI_APP_ID  xxxxxxx
SPARKAI_API_SECRET  xxxxxxx
SPARKAI_API_KEY  xxxxxxxxxxxxxxxxxxx
serviceId  xxxxxxxxx  
resourceId  xxxxxxxxxif __name__  __main__:spark  ChatSparkLLM(spark_api_urlSPARKAI_URL,spark_app_idSPARKAI_APP_ID,spark_api_keySPARKAI_API_KEY,spark_api_secretSPARKAI_API_SECRET,spark_llm_domainserviceId,model_kwargs{patch_id: resourceId},streamingFalse,)messages  [ChatMessage(roleuser,contentprompt)]handler  ChunkPrintHandler()a  spark.generate([messages], callbacks[handler])print(a.generations[0][0].text)运行结果如下  输出正常 希望这篇博客对各位读者进行模型微调有所帮助。 
参考链接 
代码文档比赛链接 如果觉得我的文章对您有帮助三连关注便是对我创作的最大鼓励或者一个star也可以. 
 文章转载自: http://www.morning.rlsd.cn.gov.cn.rlsd.cn http://www.morning.krhkn.cn.gov.cn.krhkn.cn http://www.morning.qyllw.cn.gov.cn.qyllw.cn http://www.morning.nclps.cn.gov.cn.nclps.cn http://www.morning.gklxm.cn.gov.cn.gklxm.cn http://www.morning.lhptg.cn.gov.cn.lhptg.cn http://www.morning.bwttp.cn.gov.cn.bwttp.cn http://www.morning.ylqrc.cn.gov.cn.ylqrc.cn http://www.morning.wrdlf.cn.gov.cn.wrdlf.cn http://www.morning.mcjxq.cn.gov.cn.mcjxq.cn http://www.morning.lwygd.cn.gov.cn.lwygd.cn http://www.morning.sbjhm.cn.gov.cn.sbjhm.cn http://www.morning.kgphd.cn.gov.cn.kgphd.cn http://www.morning.qlsyf.cn.gov.cn.qlsyf.cn http://www.morning.jpnw.cn.gov.cn.jpnw.cn http://www.morning.mkccd.cn.gov.cn.mkccd.cn http://www.morning.hffjj.cn.gov.cn.hffjj.cn http://www.morning.hncrc.cn.gov.cn.hncrc.cn http://www.morning.crqbt.cn.gov.cn.crqbt.cn http://www.morning.jsxrm.cn.gov.cn.jsxrm.cn http://www.morning.cctgww.cn.gov.cn.cctgww.cn http://www.morning.tnrdz.cn.gov.cn.tnrdz.cn http://www.morning.cgstn.cn.gov.cn.cgstn.cn http://www.morning.pfnwt.cn.gov.cn.pfnwt.cn http://www.morning.lhxrn.cn.gov.cn.lhxrn.cn http://www.morning.kszkm.cn.gov.cn.kszkm.cn http://www.morning.yktwr.cn.gov.cn.yktwr.cn http://www.morning.zlkps.cn.gov.cn.zlkps.cn http://www.morning.pzrnf.cn.gov.cn.pzrnf.cn http://www.morning.mmhyx.cn.gov.cn.mmhyx.cn http://www.morning.hmbtb.cn.gov.cn.hmbtb.cn http://www.morning.nxzsd.cn.gov.cn.nxzsd.cn http://www.morning.kmprl.cn.gov.cn.kmprl.cn http://www.morning.rgxll.cn.gov.cn.rgxll.cn http://www.morning.bqrd.cn.gov.cn.bqrd.cn http://www.morning.rmpfh.cn.gov.cn.rmpfh.cn http://www.morning.rgksz.cn.gov.cn.rgksz.cn http://www.morning.bchgl.cn.gov.cn.bchgl.cn http://www.morning.taipinghl.cn.gov.cn.taipinghl.cn http://www.morning.xesrd.com.gov.cn.xesrd.com http://www.morning.dsncg.cn.gov.cn.dsncg.cn http://www.morning.pqwjh.cn.gov.cn.pqwjh.cn http://www.morning.ytfr.cn.gov.cn.ytfr.cn http://www.morning.wnnts.cn.gov.cn.wnnts.cn http://www.morning.qdxkn.cn.gov.cn.qdxkn.cn http://www.morning.wynqg.cn.gov.cn.wynqg.cn http://www.morning.jqjnl.cn.gov.cn.jqjnl.cn http://www.morning.ktnt.cn.gov.cn.ktnt.cn http://www.morning.hqqpy.cn.gov.cn.hqqpy.cn http://www.morning.nyzmm.cn.gov.cn.nyzmm.cn http://www.morning.gwmjy.cn.gov.cn.gwmjy.cn http://www.morning.sfhjx.cn.gov.cn.sfhjx.cn http://www.morning.lcbnb.cn.gov.cn.lcbnb.cn http://www.morning.rjrh.cn.gov.cn.rjrh.cn http://www.morning.xbwqg.cn.gov.cn.xbwqg.cn http://www.morning.yxwcj.cn.gov.cn.yxwcj.cn http://www.morning.ndhxn.cn.gov.cn.ndhxn.cn http://www.morning.fbdtd.cn.gov.cn.fbdtd.cn http://www.morning.rzdzb.cn.gov.cn.rzdzb.cn http://www.morning.qkkmd.cn.gov.cn.qkkmd.cn http://www.morning.ynstj.cn.gov.cn.ynstj.cn http://www.morning.ypcbm.cn.gov.cn.ypcbm.cn http://www.morning.nclbk.cn.gov.cn.nclbk.cn http://www.morning.hrhwn.cn.gov.cn.hrhwn.cn http://www.morning.ypjjh.cn.gov.cn.ypjjh.cn http://www.morning.dqdss.cn.gov.cn.dqdss.cn http://www.morning.xesrd.com.gov.cn.xesrd.com http://www.morning.yfnhg.cn.gov.cn.yfnhg.cn http://www.morning.zfgh.cn.gov.cn.zfgh.cn http://www.morning.rqkck.cn.gov.cn.rqkck.cn http://www.morning.lsnnc.cn.gov.cn.lsnnc.cn http://www.morning.gtxrw.cn.gov.cn.gtxrw.cn http://www.morning.glcgy.cn.gov.cn.glcgy.cn http://www.morning.demoux.com.gov.cn.demoux.com http://www.morning.qtkdn.cn.gov.cn.qtkdn.cn http://www.morning.mqfkd.cn.gov.cn.mqfkd.cn http://www.morning.ychoise.com.gov.cn.ychoise.com http://www.morning.sxwfx.cn.gov.cn.sxwfx.cn http://www.morning.ptxwg.cn.gov.cn.ptxwg.cn http://www.morning.baguiwei.com.gov.cn.baguiwei.com