我的博客¶
Material-Mkdocs 本地部署优化
使用 Material Mkdocs 搭建了一个 Wiki 文档,部署环境为离线的 Linux 环境,尝试过 mkdocs serve
以及使用 HTTP 服务部署,但都存在一个问题是打开首页加载及其缓慢,可能需要两三分钟,且重新打开一个标签页依然加载缓慢。
本篇文档我们记录下如何优化离线环境下 Material Mkdocs 的部署,优化页面加载速度。
Mac 删除 ExFAT USB 存储设备中的 ._ 文件
当你在 macOS 系统上使用 exFAT 文件系统的 U 盘或硬盘 时,会发现每个文件或文件夹旁边都会多出一个以 ._
开头的隐藏文件(如 ._example.txt
)。这是正常现象,背后是 MacOS 的一个设计机制,用来扩展元数据。
VPN
警告
VPN 仅用于学术性科学上网,切勿违反国家法律法规。
软件名 | 推荐 | Windows | Mac | 安卓 | IOS | Chrome插件 |
---|---|---|---|---|---|---|
性价比机场 | ⭐ | ✅ | ✅ | |||
WindScribe | ⭐ | ✅ | ✅ | ✅ | ✅ | |
Latern | ✅ | ✅ | ✅ | |||
Aurora | ✅ | ✅ | ✅ | |||
GreenHub | ✅ | ✅ | ||||
快喵 | ⭐ | ✅ | ||||
Proton VPN | ✅ | ✅ | ||||
Free VPN | ✅ | |||||
VPN - Super Unlimted Proxy | ✅ |
1. WindScribe
WindScribe 是一款非常优秀的软件,支持多个平台使用,优缺点如下:
- 优点: 流量相对比较送的比较多,最多可达 15 G,可选的免费节点多
- 缺点: 系统网络会被影响,导致VPN使用期间网络使用会出现问题,尤其是公司内部网络有安全认证,使用后一般都需要重新进行网络验证。另外如果使用时间为当地白天的话,则速度相对较慢
2. Aurora
Aurora 以前的佛跳墙改名,近期软件经常出问题打不开,免费节点相对比较少,强烈建议不要充钱 🚫
3. GreenHub
GreenHub 也是一款非常优秀的免费软件,除亚洲节点外可以访问 ChatGPT,速度也比较快。缺点也很明显,每天最多使用 60 分钟,大部分时间节点状态不可用,建议作为备选。
4. 快喵
快喵也是一款免费的软件,优点是无需注册账号,连接比较块,可访问 ChatGPT。缺点是只支持 IOS 端,并且近期广告变得越来越多。
5. Free VPN
缺点是广告太多,使用时长太短,强烈不推荐 🚫
6. VPN - Super Unlimted Proxy
优点:是连接上之后,整体速度还是比较快的, 缺点也很明显,有广告,连接时间相对有点长。
7. 性价比机场
性价比机场 售卖的节点,并不是软件,需要结合 Clash 一起才能使用,性价比很高,也支持多个平台。对于 iOS 手机端的用户,则需要另外购买小火箭,加载订阅节点才能使用。
大模型的微调与蒸馏技术的比较
LLM 已经彻底改变了人工智能,特别是具有数十亿到数百亿参数的模型,使其在各种自然语言处理(NLP)任务中实现了最先进的表现。然而,它们庞大的体量带来了计算效率、适应性和部署可行性方面的挑战,微调 和 蒸馏 这两种主要技术已经成为关键的优化策略。
- 微调:涉及调整预训练模型的参数,以提高在特定领域任务上的表现。虽然完整的微调会更新所有权重,但近年来如 LoRA(Low-Rank Adaptation,低秩适应)及其变体 QLoRA 在 PEFT(Parameter-Efficient Fine-Tuning,参数高效微调)方面的进展,使得我们可以 只更新总参数的一小部分。将 QLoRA 将 4 位量化(例如,使用 NormalFloat,NF4)与 LoRA 结合,能显著减少内存使用,同时不牺牲性能。
- 蒸馏:大型高容量教师模型的行为被转移到较小的学生模型中,这种压缩技术通常涉及任务特定的损失函数和教师引导的散度(通常通过Kullback–Leibler散度衡量),旨在减少模型的体积和推理成本,同时保持准确性。
尽管传统上这两种方法被视为独立的策略,但最近的研究表明,混合方法可以充分发挥这两种策略的优势。将参数高效的微调与蒸馏相结合,可以使得一个强大的预训练模型适应特定领域并进行压缩,从而实现高效的推理。
本文将探讨微调与蒸馏在架构、计算和性能方面的权衡,分析 LoRA、4 位量化以及像 KD-LoRA 这样的混合框架等创新如何重塑 LLM 优化的未来。