技术标签: python 语言模型 nlp 深度学习 pytorch
BigDL-LLM是基于英特尔 XPU(如CPU、GPU)平台的开源大模型加速库,它使用低比特优化(如FP4/INT4/NF4/FP8/INT8)及多种英特尔 CPU/GPU集成的硬件加速技术,以极低的延迟运行和微调大语言模型。
BigDL-LLM支持标准的PyTorch API(如 HuggingFace Transformers 和 LangChain)和大模型工具(如HuggingFace PEFT、DeepSpeed、vLLM等),可助力 AI 开发者和研究者在英特尔平台(笔记本、工作站、服务器和GPU)上高效开发、加速大语言模型算法和应用。
按照官网给定的快速实践样例, 借助 BigDL-LLM 完成模型加速优化的过程异常简单,只需更改一行代码,就可以立即观察到显著的加速效果。
我们选择的模型是ChatGLM3-6b,这是官网给出的样例。
import torch
import time
import argparse
import numpy as np
from bigdl.llm.transformers import AutoModel
from transformers import AutoTokenizer
# you could tune the prompt based on your own model,
# here the prompt tuning refers to https://github.com/THUDM/ChatGLM3/blob/main/PROMPT.md
CHATGLM_V3_PROMPT_FORMAT = "<|user|>\n{prompt}\n<|assistant|>"
if __name__ == '__main__':
parser = argparse.ArgumentParser(description='Predict Tokens using `generate()` API for ChatGLM3 model')
parser.add_argument('--repo-id-or-model-path', type=str, default="THUDM/chatglm3-6b",
help='The huggingface repo id for the ChatGLM3 model to be downloaded'
', or the path to the huggingface checkpoint folder')
parser.add_argument('--prompt', type=str, default="AI是什么?",
help='Prompt to infer')
parser.add_argument('--n-predict', type=int, default=32,
help='Max tokens to predict')
args = parser.parse_args()
model_path = args.repo_id_or_model_path
# Load model in 4 bit,
# which convert the relevant layers in the model into INT4 format
model = AutoModel.from_pretrained(model_path,
load_in_4bit=True,
trust_remote_code=True)
# Load tokenizer
tokenizer = AutoTokenizer.from_pretrained(model_path,
trust_remote_code=True)
# Generate predicted tokens
with torch.inference_mode():
prompt = CHATGLM_V3_PROMPT_FORMAT.format(prompt=args.prompt)
input_ids = tokenizer.encode(prompt, return_tensors="pt")
st = time.time()
output = model.generate(input_ids,
max_new_tokens=args.n_predict)
end = time.time()
output_str = tokenizer.decode(output[0], skip_special_tokens=True)
print(f'Inference time: {
end-st} s')
print('-'*20, 'Prompt', '-'*20)
print(prompt)
print('-'*20, 'Output', '-'*20)
print(output_str)
从这段代码,的确能感受到 BigDL-LLM 的便捷性。
bigdl.llm.transformers
中类似的AutoModel
类,就可以实现轻量加载。model.generate()
方法。为了便于后续的开发使用,我们将其封装为一个类。可以看到,代码非常简洁明了。(当然,目前是比较原始的版本,还未做异常处理和更完善的设计)。
class ChatGLM3Extractor(object):
"""
Generate text
by ChatGLM-3-6b and optimized by BigDL-LLM.
"""
def __init__(self, model_path):
# define chatglm-3 prompt with conversation
self.CHATGLM_V3_PROMPT_FORMAT_TEMPLATE = "<|user|>\n{prompt}\n<|assistant|>"
# loading 4 bit glm-3 model
self.model = AutoModel.from_pretrained(model_path,
load_in_4bit=True,
trust_remote_code=True)
self.tokenizer = AutoTokenizer.from_pretrained(model_path,
trust_remote_code=True)
def extract(self, res_result, prefix_string=""):
"""extract useful numeric field"""
# prompt creating
prompt = f'{
res_result}。{
prefix_string}'
n_predict = 512
with torch.inference_mode():
# chatglm-3 inference
prompts = self.CHATGLM_V3_PROMPT_FORMAT_TEMPLATE.format(prompt=prompt)
input_ids = self.tokenizer.encode(prompts, return_tensors="pt")
st = time.time()
output = self.model.generate(input_ids,
max_new_tokens=n_predict)
end = time.time()
output_str = self.tokenizer.decode(output[0], skip_special_tokens=True)
print(f'Inference time: {
end - st} s')
print('-' * 20, 'Prompt', '-' * 20)
print(prompts)
print('-' * 20, 'Output', '-' * 20)
print(output_str)
return output_str
测试部分,我们加载开源的模型权重。询问模型 “BigDL-LLM是什么?” 。
chatglm3_model = ChatGLM3Extractor("./chatglm3-6b")
question = "BigDL-LLM是什么?"
response = chatglm3_model.extract(res)
我们直接在CPU设备上加载模型并进行推理,我们的CPU规格是Intel Xeon Gold 5218 (6) @ 2.294GHz
。
无论是效果还是性能,都是不错的。
有些人可能认为12s的推理速度是否过慢,但理论上来说,这已经足够快了。原因主要有两点,
- 推理全部在CPU设备进行;
- 我们采用的是同步输出结果的方式,即得到答案才输出完整文本,而实际使用中,更多的是流式输出,即逐字输出。
整体而言,我们对 BigDL-LLM 的实践过程流畅如行云流水,过程中并未遇到任何阻碍。毫无疑问,BigDL-LLM 作为一个开源库的可行性得到了验证,其简洁的开发使用方式显著提升了开发人员的效率。
然而,尽管 BigDL-LLM 有其优点,但我们也发现了一些不足之处:
适配性不足
我们对Qwen的多个版本进行了测试,发现其中一些版本并未得到优化。这可能是由于模型设计时的问题(例如,Qwen的某个版本在预训练时已经使用了量化加速方法,该方法需要在GPU设备上进行加速,但我们在CPU设备上加载并测试了该模型),导致该模型无法被 BigDL-LLM 加速。当然,这也可能是 BigDL-LLM 本身在适配性上的缺陷。
模型性能下降
当我们使用原始的 transformers 库测试ChatGLM3-6b时,我们发现其生成效果似乎优于经过 BigDL-LLM 加速后的版本。虽然我们知道加速版本的性能可能会有所下降,但有时候性能的下降过于明显,甚至有时生成的内容与提问的内容完全不符。
transformers :https://github.com/huggingface/transformers
ChatGLM3-6b:https://www.modelscope.cn/models/ZhipuAI/chatglm3-6b/summary
BigDL-LLM 的官方样例:https://github.com/intel-analytics/BigDL/blob/main/python/llm/example/CPU/HF-Transformers-AutoModels/Model
文章浏览阅读3.4k次,点赞8次,收藏42次。一、什么是内部类?or 内部类的概念内部类是定义在另一个类中的类;下面类TestB是类TestA的内部类。即内部类对象引用了实例化该内部对象的外围类对象。public class TestA{ class TestB {}}二、 为什么需要内部类?or 内部类有什么作用?1、 内部类方法可以访问该类定义所在的作用域中的数据,包括私有数据。2、内部类可以对同一个包中的其他类隐藏起来。3、 当想要定义一个回调函数且不想编写大量代码时,使用匿名内部类比较便捷。三、 内部类的分类成员内部_成员内部类和局部内部类的区别
文章浏览阅读118次。分布式系统要求拆分分布式思想的实质搭配要求分布式系统要求按照某些特定的规则将项目进行拆分。如果将一个项目的所有模板功能都写到一起,当某个模块出现问题时将直接导致整个服务器出现问题。拆分按照业务拆分为不同的服务器,有效的降低系统架构的耦合性在业务拆分的基础上可按照代码层级进行拆分(view、controller、service、pojo)分布式思想的实质分布式思想的实质是为了系统的..._分布式系统运维工具
文章浏览阅读174次。1.数据源准备2.数据处理step1:数据表处理应用函数:①VLOOKUP函数; ② CONCATENATE函数终表:step2:数据透视表统计分析(1) 透视表汇总不同渠道用户数, 金额(2)透视表汇总不同日期购买用户数,金额(3)透视表汇总不同用户购买订单数,金额step3:讲第二步结果可视化, 比如, 柱形图(1)不同渠道用户数, 金额(2)不同日期..._exce l趋势分析数据量
文章浏览阅读3.3k次。堡垒机可以为企业实现服务器、网络设备、数据库、安全设备等的集中管控和安全可靠运行,帮助IT运维人员提高工作效率。通俗来说,就是用来控制哪些人可以登录哪些资产(事先防范和事中控制),以及录像记录登录资产后做了什么事情(事后溯源)。由于堡垒机内部保存着企业所有的设备资产和权限关系,是企业内部信息安全的重要一环。但目前出现的以下问题产生了很大安全隐患:密码设置过于简单,容易被暴力破解;为方便记忆,设置统一的密码,一旦单点被破,极易引发全面危机。在单一的静态密码验证机制下,登录密码是堡垒机安全的唯一_horizon宁盾双因素配置
文章浏览阅读7.7k次,点赞4次,收藏16次。Chrome作为一款挺不错的浏览器,其有着诸多的优良特性,并且支持跨平台。其支持(Windows、Linux、Mac OS X、BSD、Android),在绝大多数情况下,其的安装都很简单,但有时会由于网络原因,无法安装,所以在这里总结下Chrome的安装。Windows下的安装:在线安装:离线安装:Linux下的安装:在线安装:离线安装:..._chrome linux debian离线安装依赖
文章浏览阅读153次。中国发达城市榜单每天都在刷新,但无非是北上广轮流坐庄。北京拥有最顶尖的文化资源,上海是“摩登”的国际化大都市,广州是活力四射的千年商都。GDP和发展潜力是衡量城市的数字指...
文章浏览阅读3.3k次。前言spark在java使用比较少,多是scala的用法,我这里介绍一下我在项目中使用的代码配置详细算法的使用请点击我主页列表查看版本jar版本说明spark3.0.1scala2.12这个版本注意和spark版本对应,只是为了引jar包springboot版本2.3.2.RELEASEmaven<!-- spark --> <dependency> <gro_使用java调用spark注册进去的程序
文章浏览阅读4.8k次。汽车零部件开发工具巨头V公司全套bootloader中UDS协议栈源代码,自己完成底层外设驱动开发后,集成即可使用,代码精简高效,大厂出品有量产保证。:139800617636213023darcy169_uds协议栈 源代码
文章浏览阅读4.6k次,点赞20次,收藏148次。AUTOSAR基础篇之OS(下)前言首先,请问大家几个小小的问题,你清楚:你知道多核OS在什么场景下使用吗?多核系统OS又是如何协同启动或者关闭的呢?AUTOSAR OS存在哪些功能安全等方面的要求呢?多核OS之间的启动关闭与单核相比又存在哪些异同呢?。。。。。。今天,我们来一起探索并回答这些问题。为了便于大家理解,以下是本文的主题大纲:[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-JCXrdI0k-1636287756923)(https://gite_autosar 定义了 5 种多核支持类型
文章浏览阅读2.2k次,点赞6次,收藏14次。原因:自己写的头文件没有被加入到方案的包含目录中去,无法被检索到,也就无法打开。将自己写的头文件都放入header files。然后在VS界面上,右键方案名,点击属性。将自己头文件夹的目录添加进去。_vs2013打不开自己定义的头文件
文章浏览阅读3.3w次,点赞80次,收藏342次。此时,可以将系统中所有用户的 Session 数据全部保存到 Redis 中,用户在提交新的请求后,系统先从Redis 中查找相应的Session 数据,如果存在,则再进行相关操作,否则跳转到登录页面。此时,可以将系统中所有用户的 Session 数据全部保存到 Redis 中,用户在提交新的请求后,系统先从Redis 中查找相应的Session 数据,如果存在,则再进行相关操作,否则跳转到登录页面。当数据量很大时,count 的数量的指定可能会不起作用,Redis 会自动调整每次的遍历数目。_redis命令
文章浏览阅读449次,点赞3次,收藏3次。URP的设计目标是在保持高性能的同时,提供更多的渲染功能和自定义选项。与普通项目相比,会多出Presets文件夹,里面包含着一些设置,包括本色,声音,法线,贴图等设置。全局只有主光源和附加光源,主光源只支持平行光,附加光源数量有限制,主光源和附加光源在一次Pass中可以一起着色。URP:全局只有主光源和附加光源,主光源只支持平行光,附加光源数量有限制,一次Pass可以计算多个光源。可编程渲染管线:渲染策略是可以供程序员定制的,可以定制的有:光照计算和光源,深度测试,摄像机光照烘焙,后期处理策略等等。_urp渲染管线