#001 使用LifeOS
本文最后更新于 2025年8月25日 凌晨
这篇文章是对2025-08-18到2025-08-24的总结
使用LifeOS
前段时间看到一个视频,大概意思是人需要去记录自己,对我有很大的感触,于是最近开始使用Obsidian的LifeOS来管理记录我的工作生活。在做记录的过程中,我发现自己可以把很多事情更好的组织和关联到一起了。以前生活里如果有很多主线要去完成的时候,除非是火烧眉毛了,否则我很容易失去对这些事情的掌控,结果是不了了之了。这样既不利于我更进一步去控制生活,也容易让人进入恶性循环。
还有开始在每天回忆今天发生的事情的时候,有很多细小的灵感都能及时落实下来,能清晰地感受到今天一天是怎么过的,这种感觉真的很好。
学习技术&AI
下周准备把并发编程吃灰已久的书看一下,同时也准备将AI领域的学习列为每周的常规项目。
到现在这个时候,AI不停地在突飞猛进的发展。很久没有感受到一门技术会日新月异的快速迭代,同时还能对日常生活产生巨大影响了。我认为不只是程序员,所有行业的从业者都应该及时通过掌握AI来提升自己的工作和学习效率。能想象到,如果不用AI,很有可能会被时代落下。
阅读列表
- 训练xAI需要20w块GPU协作,这些GPU是如何连接在一起的?
- 如果将每个GPU直接连接,那每块GPU需要至少20w-1个接口,这是不现实的
- 现代AI训练GPU网络使用交换机将GPU连接在一起
- 直接与GPU单元连接的交换机称为Leaf(叶交换机),连接叶交换机的交换机称为Spine(骨干交换机)
- 两层交换机解决GPU网络水平扩展的问题,只要继续增加交换机就可以了。
- 但是规模到一定程度后,跨交换机之间GPU通信成本会变得很高,怎么才能垂直扩容?
- 垂直扩容是通过将多个GPU架设在一个服务器上实现的。交换机不与GPU直连,而是与计算节点(服务器)连接。
- 节点内的GPU可以通过专门的物理互联技术通信,速度非常快。intra-node(节点内)通信比inter-node(节点间)通信快很多。
- 训练模型的正向传播用来产生预测值和计算损失函数,反向传播根据节点对误差的贡献对权重进行调整。
- 因为单个节点是计算的子集,所以必须对节点梯度进行聚合然后分发,这称为全损失通信。全损失通讯的延迟直接影响训练效率。
- 抛开各种提效软件,方法更重要,怎么使用Apple Reminder组织待办工作
#001 使用LifeOS
https://blog.avezah.com/2025-08/week-001-lifeos/