#001 使用LifeOS

本文最后更新于 2025年8月25日 凌晨

这篇文章是对2025-08-18到2025-08-24的总结

使用LifeOS

前段时间看到一个视频,大概意思是人需要去记录自己,对我有很大的感触,于是最近开始使用Obsidian的LifeOS来管理记录我的工作生活。在做记录的过程中,我发现自己可以把很多事情更好的组织和关联到一起了。以前生活里如果有很多主线要去完成的时候,除非是火烧眉毛了,否则我很容易失去对这些事情的掌控,结果是不了了之了。这样既不利于我更进一步去控制生活,也容易让人进入恶性循环。

还有开始在每天回忆今天发生的事情的时候,有很多细小的灵感都能及时落实下来,能清晰地感受到今天一天是怎么过的,这种感觉真的很好。

学习技术&AI

下周准备把并发编程吃灰已久的书看一下,同时也准备将AI领域的学习列为每周的常规项目。

到现在这个时候,AI不停地在突飞猛进的发展。很久没有感受到一门技术会日新月异的快速迭代,同时还能对日常生活产生巨大影响了。我认为不只是程序员,所有行业的从业者都应该及时通过掌握AI来提升自己的工作和学习效率。能想象到,如果不用AI,很有可能会被时代落下。

阅读列表

GPU是如何协同工作的?

  1. 训练xAI需要20w块GPU协作,这些GPU是如何连接在一起的?
  2. 如果将每个GPU直接连接,那每块GPU需要至少20w-1个接口,这是不现实的
  3. 现代AI训练GPU网络使用交换机将GPU连接在一起
  4. 直接与GPU单元连接的交换机称为Leaf(叶交换机),连接叶交换机的交换机称为Spine(骨干交换机)
  5. 两层交换机解决GPU网络水平扩展的问题,只要继续增加交换机就可以了。
  6. 但是规模到一定程度后,跨交换机之间GPU通信成本会变得很高,怎么才能垂直扩容?
  7. 垂直扩容是通过将多个GPU架设在一个服务器上实现的。交换机不与GPU直连,而是与计算节点(服务器)连接。
  8. 节点内的GPU可以通过专门的物理互联技术通信,速度非常快。intra-node(节点内)通信比inter-node(节点间)通信快很多。
  9. 训练模型的正向传播用来产生预测值和计算损失函数,反向传播根据节点对误差的贡献对权重进行调整。
  10. 因为单个节点是计算的子集,所以必须对节点梯度进行聚合然后分发,这称为全损失通信。全损失通讯的延迟直接影响训练效率。

【译】Apple Reminder 中「焦点列表」的秘诀

  • 抛开各种提效软件,方法更重要,怎么使用Apple Reminder组织待办工作

#001 使用LifeOS
https://blog.avezah.com/2025-08/week-001-lifeos/
作者
avezah
发布于
2025年8月24日
许可协议