Weekly Summary 7
Jan 28, 2024 12:30 pm UTC+8
科大高新区
1 本周的工作
- Mon: 问卷与收集整理信息
- Tues:
- 内容的填充:docs, moniter hosts, wiki
- 单独询问人物:师兄修改,黄业琦,fjw, 各年级,
- 功能的拓展:底部栏添加github按钮,关闭个人页面的标语以及,默认一作论文开,相关论文关闭
- Wed: 2. Document: 如何部署,填充内容,开关功能
- Thurs:
2. AI超分和补帧动漫视频
3.
GO2 运动相机:非侵占摄像,记录生活,积攒视频技巧.: 续航不足,积热严重还会过热保护,画质也不太够(大部分情况还比不过手机)。 4.topdown feature和logo5. 传统的服务器是没有图形化输出的,面对有UI应用,如果装好了还好说直接用VNC或者SSH转发使用(nvsight)。但是涉及到GUI的软件安装,都需要Sudo,重启啊,更新OpenGL版本。导致很多问题(安装了desktop但是没有默认显示器,导致直接休眠)。如果能使用docker包装一个图形化模块就好了。 - Fri:
- 功能的支持:表格
- 论文, 一点点
- Anime Upscaling 宣告不可行,插帧还比较合理
- Sat:
- 视频如何一步插四帧到120fps
- 群晖相关问题:
- Davinc架构:
- Sun:
- summary
- Davinci
| metrics | Monday | Tuesday | Wednesday | Thursday | Friday | Saturday | Sunday |
|---|---|---|---|---|---|---|---|
| Get up | 8:55 | 8:55 | 11:40 | 7:30 | 8:50 | 11:15 | 8:20 |
| Running | 11km/50min | 4km | |||||
| In-door Exercise(2~3) | x | x | xx | ||||
| Go2Lab | x | x | |||||
| Release | xx | x | x | x | |||
| Fall Sleep | 2:40 | 5:20 | 3:40 | 3:00 | 4:50 | 3:40 | 1:00 |
| Night Think | |||||||
| Resleep |
- 室内运动: 建议每半天一次(早起和晚归)。内容仰卧起坐(包括侧卧),平板支撑,俯卧撑,Kegel
- 睡觉时间以平板时间为准。每晚睡眠在7~8小时之间,参考
- 打乱作息。
- 思考完后大脑活跃,但是身体已经扛不住了。
- 需要看relax视频,转移大脑注意力
2 下周任务优先级
2.1 任务评估与时间分配
| 紧急性(3) | 重要性(3) | 喜好(1) | 工作量(3) | 总分 | 分配 | 要求 | |
|---|---|---|---|---|---|---|---|
| thesis | 3 | 3 | 0 | 3 | 9 | 四天多 | 3 |
| AI | 1 | 2 | 1 | 2 | 6 | 两天欠 | 1 |
| web | 1 | 0 | 0 | 1 | 2 | 一天欠 | 1 |
| Summary | 21 |
https://github.com/chenzomi12/DeepLearningSystem/blob/main/02Hardware/02ChipBase/05.gpu.pdf
2.2 硬件设计
2.3 AI模型
现在LLM 的大小为什么都设计成6/7B、13B和130B几个档次?解析大模型中的Scaling Law
2.4 瓶颈与性能分析(成本)
Memory Wall in Neural Network Inference
mike: https://le.qun.ch/en/blog/2023/05/13/transformer-batching/
mike: Dissecting Batching Effects in GPT Inference 一个blog你们可能会感兴趣,有GPT inference的内存墙分析
mike: https://www.databricks.com/blog/llm-inference-performance-engineering-best-practices
2.5 国内产品的硬件差距
- 国产GPU新势力摩尔线程
- 国产GPU,可堪大用吗?系列之二:神秘的910B
- 英伟达 vs. 华为海思:GPU性能一览 昇腾910B 达芬奇 gpuScratchpad 思元690 深水4号
2.6 国外先进制程
- 虽然可能会陷入上下午切换导致的效率损失。
- 但是不同于CPU,人脑可以在多进程之间提取通用的思想,融会贯通。
- 另一个好处是,任务开展后才能知道其中的难点,和大约耗时,才有助于实时调整策略应对。不会导致措手不及的狼狈下场。
2.7 工作内容
- 算子底层npu异常检测,内存踩踏,越界。
- 高层模型层级,提高精度,算法强相关。
- (传统内容的创新)基于性能建模,推理和训练加速。
2.8 团队
- 百度编译器 晓光
- 10几个人,后端上海,前端北京。
- 尖酸小黄鸭:T9 - 半年
- T5 -清华的硕士:AI编译器前端,OP → 机器码→kernel。循环融合。
2.9 工作内容
- 鲁棒性(容忍输入扰动的稳定性,处理出错情况的可靠性),正确性,AI原生的思维。
- 后端 code阵列,
2.9.1 AI 编译器
- 中间理论:代数结构,形式化下来。多个op循环融合,map ADT(Abstract Data Type",即抽象数据类型?)
- TVM autotune op规则
- torch 负优化 - 形式化定义,算子以及约束。 A B op融合
Dear Qingcai,
Below is a brief update on the work accomplished this week and my focus areas for the upcoming week.
The primary focus this week has been on the lab website. Significant progress was made in information collection, enhancing functionalities, deploying the site online, and documenting the process. These efforts were aimed at establishing a robust platform for our lab’s online presence. As we move into next week, my attention will shift back to advancing my graduation thesis and deepening my understanding of AI systems.
Please let me know if you have any feedback.
Best regards,
Shaojie