目录
一、邀请方
国家超算互联网(www.scnet.cn)
二、活动名称主题
国家超算互联网「AI跃升季」:谁是下一个“AI”跃人 - AI算力体验活动(https://www.scnet.cn/home/subject/modular/index272.html)
三、活动具体参与指引
(1)运行的商品名称
chatglm2-6b
(2)运行的过程记录。
(1)选择商品
(2)购买使用
(3)选择模型开发
(4)购买加速卡
(5)进入JupyterLab
(6)阅读README文档并新建代码调用模型
(3)运行的结果反馈。
(1)模型加载并测试输出
(2)下载官方数据集并重新训练微调模型
(4)模型性能测试
测试不同数据类型(float32 和 float16)和矩阵大小(128、512、2048 和 8192)的矩阵乘法性能
测试不同向量大小的元素级乘法性能,并计算其 TFLOPS和内存带宽
测试 BERT 层的性能
该输出显示了 BERT 层在不同seq_lens和batch_size的前向和前向+反向传递的 TFLOPS
测试 BERT 层的第一个密集层的性能:
h: 隐藏层大小,为 1024
b: 批大小,为 64
s: 序列长度,为 128
X: 大小为 b x s x h 的随机张量
测试 BERT 层的第一个密集层和 GeLU 激活函数的组合的性能:
测试 BERT 层的FFN(Feed-Forward 网络)的性能:
测试 BERT 层的注意力机制的性能:
测试 GPT-2 模型的第一个区块的性能:
测试 T5 模型的第一个编码器区块的性能:
测试 T5 模型的第一个解码器区块的性能:
4、个人活动体验感受
体验较好的地方:模型可选择的比较多,购买流程挺简洁明确,显卡价格也挺合适。
遇到的问题及解决方案:
使用自定义镜像环境(jupyterlab-pytorch:2.1.0-ubuntu20.04-dtk24.04.1-py3.10 )发现如下问题:
加载chatglm2-6b模型和模型问答没有问题,但是使用官方的数据进行模型微调时报错。
微调参考github:https://github.com/THUDM/ChatGLM2-6B/tree/main/ptuning
解决方案,修改train.sh脚本,注释掉quantization_bit 4
再次执行train.sh,发现可以正常训练,就是训练速度有点慢
tow hours later... 训练完成
加载训练后的模型,验证微调效果,数据集是针对商品信息生成广告词。
5、免费领更多算力方式
AI算力不够用?参与 谁是下一个“AI”跃人 -AI体验推介活动,赢取千元算力券!(https://www.scnet.cn/home/subject/modular/index270.html)