国家超算互联网体验心得
发表于 2024-11-07 16:30:45

目录

一、邀请方

二、活动名称主题

三、活动具体参与指引

(1)运行的商品名称     

(2)运行的过程记录。

(3)运行的结果反馈。

(4)模型性能测试

5、免费领更多算力方式


一、邀请方

     国家超算互联网(www.scnet.cn)

二、活动名称主题

国家超算互联网「AI跃升季」:谁是下一个“AI”跃人 - AI算力体验活动(https://www.scnet.cn/home/subject/modular/index272.html)

三、活动具体参与指引

(1)运行的商品名称
                chatglm2-6b

(2)运行的过程记录。

(1)选择商品

(2)购买使用 

(3)选择模型开发 

(4)购买加速卡

 (5)进入JupyterLab

 (6)阅读README文档并新建代码调用模型

 3运行的结果反馈。

(1)模型加载并测试输出

(2)下载官方数据集并重新训练微调模型

(4)模型性能测试

测试不同数据类型(float32 和 float16)和矩阵大小(128、512、2048 和 8192)的矩阵乘法性能

测试不同向量大小的元素级乘法性能,并计算其 TFLOPS和内存带宽

测试 BERT 层的性能

该输出显示了 BERT 层在不同seq_lens和batch_size的前向和前向+反向传递的 TFLOPS

测试 BERT 层的第一个密集层的性能:
h: 隐藏层大小,为 1024

b: 批大小,为 64

s: 序列长度,为 128

X: 大小为 b x s x h 的随机张量

测试 BERT 层的第一个密集层和 GeLU 激活函数的组合的性能:

测试 BERT 层的FFN(Feed-Forward 网络)的性能:

测试 BERT 层的注意力机制的性能:

测试 GPT-2 模型的第一个区块的性能:

测试 T5 模型的第一个编码器区块的性能:

测试 T5 模型的第一个解码器区块的性能:

4、个人活动体验感受
        体验较好的地方:模型可选择的比较多,购买流程挺简洁明确,显卡价格也挺合适。

遇到的问题及解决方案:
        使用自定义镜像环境(jupyterlab-pytorch:2.1.0-ubuntu20.04-dtk24.04.1-py3.10 )发现如下问题:
加载chatglm2-6b模型和模型问答没有问题,但是使用官方的数据进行模型微调时报错。
微调参考github:https://github.com/THUDM/ChatGLM2-6B/tree/main/ptuning

解决方案,修改train.sh脚本,注释掉quantization_bit 4

再次执行train.sh,发现可以正常训练,就是训练速度有点慢

tow hours later... 训练完成

加载训练后的模型,验证微调效果,数据集是针对商品信息生成广告词。

5、免费领更多算力方式

        AI算力不够用?参与 谁是下一个“AI”跃人 -AI体验推介活动,赢取千元算力券!(https://www.scnet.cn/home/subject/modular/index270.html)

CSDN官方微信
扫描二维码,向CSDN吐槽
微信号:CSDNnews
微博关注
【免责声明:CSDN本栏目发布信息,目的在于传播更多信息,丰富网络文化,稿件仅代表作者个人观点,与CSDN无关。其原创性以及文中陈述文字和文字内容未经本网证实,对本文以及其中全部或者部分内容、文字的真实性、完整性、及时性本网不做任何保证或者承诺,请读者仅作参考,并请自行核实相关内容。您若对该稿件有任何怀疑或质疑,请立即与CSDN联系,我们将迅速给您回应并做处理。】