外观
Emacs 社区日报 2026-05-02
约 4598 字大约 15 分钟
2026-05-02
自动整理自 Telegram 讨论组,每天更新。内容为 AI 摘要,仅作信息索引与回顾。
Emacs 中文讨论组
好的,这是根据您提供的聊天记录整理出的技术知识库。
🎯 核心热点与专题探讨
本周群内的讨论主要围绕两个核心主题展开:一是Emacs的深度自定义与最新特性,二是关于终端模拟器的性能与选择。
【专题一】Emacs 31.1新特性与玩法:从“编辑器”到“耍酷平台”
群内多位开发者对Emacs 31.1的新特性进行了热烈的讨论,并展示了一种极客式的玩法。
- 核心议题: Emacs 31.1的更新不再局限于文本编辑,而是增加了更多视觉和平台层面的能力。讨论焦点是新的
:background-gradient属性。 - 观点与痛点:
- 玩出花: 一位群友展示了如何通过
set-face-attribute为新属性:background-gradient设置锥形渐变 (conic gradient),将mode-line变成了一个色彩斑斓的跑马灯。他评价道:“Emacs 真好玩”,展现了Hacker文化中玩弄工具以获得乐趣和成就感的一面。 - 隐藏的细节: 开发者本人也承认,他最初设计的金属色效果“不明显”,需要调整渐变方案来让其更夺人眼球。这反映了Emacs社区对自定义的苛刻追求。
- 新功能解读: 群友还注意到了其他新特性,如
line-spacing现在支持设置“行上间距”,为文本垂直居中提供了可能;以及在MS-Windows上新增的w32-export-frame原语,可以直接将Emacs frame导出为图片。
- 玩出花: 一位群友展示了如何通过
- 解决方案/工具: Emacs 31.1本身,以及通过Elisp代码进行的深度Face(字体/颜色)自定义。
【专题二】终端模拟器性能之争:X11 vs. Wayland, Foot vs. Ghostty
在低性能设备(Surface Go 1)上的实际使用体验,引发了一场关于终端模拟器性能和渲染架构的深度讨论。
- 核心议题: 在不同性能级别和显示协议(X11/Wayland)下,如何选择一个快速、省资源且视觉效果好的终端模拟器。
- 痛点与现象:
- GPU加速的陷阱: 一位群友指出,在Surface Go 1这类低性能笔记本上,GPU加速反而是“减速”。另一位则从内核角度解释,使用N卡时,Ghostty创建GL上下文(
create gl ctx)的开销是启动慢的瓶颈。 - 配置对启动速度的影响: 同样的低配机器上,Helix可以秒开文件,而Emacs需要5秒。群友分析这是Emacs启动时加载复杂配置导致的。
- 缩放问题: X11的非整数倍缩放(如1.5x)在群内被一致诟病为“很糊”。虽然Wayland有所改善,但“1.5就还好”的体验仍然建立在KDE等特定桌面环境的优化之上。3456×2160这类奇葩分辨率(来自Dell XPS)加剧了寻找完美缩放比的尴尬。
- 简单战胜复杂: 在讨论中,
foot终端模拟器因其“简单,好用”、支持C/S模式(降低内存占用)以及原生支持Wayland,获得了多位群友的肯定。而采用GPU渲染的ghostty和kitty虽然功能更炫,但在低配机器上反而不是最佳选择。“我用 foot”成为了一种务实的解决方案。
- GPU加速的陷阱: 一位群友指出,在Surface Go 1这类低性能笔记本上,GPU加速反而是“减速”。另一位则从内核角度解释,使用N卡时,Ghostty创建GL上下文(
- 各方观点: 群内呈现出“功能党”(追求GPU加速、视觉效果)和“性能党”(追求极低延迟,在低配硬件上流畅运行)之间的选择倾向。最终,在低性能场景下,简单和低开销的方案(foot)赢得了更多实际认同。
🔑 关键概念与技术解析
- SearXNG: 一个开源的、去中心化的元搜索引擎。用户需要自己部署(通常用Docker),不依赖第三方收集用户数据,是保护隐私的搜索方案。群内将其作为收费搜索引擎Kagi的免费、自部署替代品推荐。
- 背景渐变
:background-gradient: Emacs 31.1新增的一个Face(字体或区域样式)属性。它允许使用CSS式的渐变语法(如线性、锥形、径向)来为Emacs界面元素(如mode-line)设置动态背景色,而不再是单一的纯色。极大地扩展了自定义的视觉维度。 - Pretext: 一个前端字体/排版技术项目(
chenglou.me/pretext/),它允许对文本进行类似CSS的复杂样式(如渐变、动画、剪切路径)渲染,被称为“浏览器上革命性的字体特性”。群友将其作为Emacs未来在字体渲染上可能“玩出花”的借鉴对象。 - Ghostty / Foot / Kitty / Urxvt: 均为终端模拟器。
- Ghostty: 一个较新的、使用GPU加速渲染的终端模拟器,主打高性能和现代化。但讨论指出其启动慢(尤其在低配机器上),可能因渲染上下文初始化开销大。
- Foot: 一个专为Wayland设计的、轻量级的终端模拟器。其优势在于极简、启动快、支持C/S模式(多实例共享后端减少内存占用)。
- Kitty: 一个功能丰富、使用GPU加速的跨平台终端模拟器。群内有群友表示自己“堕落”到了kitty,暗示其虽好,但可能有资源消耗大的嫌疑。
- Urxvt: X11下的经典轻量级终端,扩展性强。但已被指出在Wayland时代无法使用。
- C/S模式 (Client/Server): 在终端模拟器(如Foot)中,指应用程序(客户端)与实际的渲染后端(服务器)分离。多个客户端窗口可以共享同一个后端进程,从而降低内存占用并提高启动速度。
- X11钉子户: 指坚持使用传统X Window System显示协议,而不迁移到Wayland的用户。他们通常为了兼容性(如X11下大量的老应用和扩展)而选择固守。
💎 碎片知识与金句拾遗
- “论 gpu accelerated” (@fuzy****😗***matrix.org): 在讨论Ghostty启动慢时,一语道破GPU加速并非在所有场景下都是万灵药。特别是在启动阶段,驱动加载和上下文创建的开销甚至可能抵消渲染性能优势。
- “在低性能笔记本上gpu加速反而是减速”(@fuzy): 进一步深化了上一观点,点明了硬件条件与优化策略的辩证关系。
- “车厘子效应”: 在讨论图形缩放时,形成了“高对比度vs低对比度”的争论。有人提出“低对比度看着才会累”,而有人反驳“太高和太低都不好,高了晃眼睛,低了分不清”。这反映了在视觉设计上,极端的解决方案常常比中庸的方案更受争议。
- “2.8k。就很尴尬” :关于笔记本2.8K屏幕的吐槽。这个分辨率既不是Full HD(1080p,整数倍缩放1x太大,2x太大),也不是4K(整数2x缩放内容偏小),导致用户在高分、性能和最佳缩放比例之间陷入“尴尬”的取舍困境。
- “我也有段时间没有用过x11了” (@fuzy): 一种轻描淡写地宣告自己已经从旧时代迈入新世界(Wayland)的方式,充满了技术社区的优越感。
- “我感觉neomacs可以给字体也整上很多花里胡哨的花活。” :一位群友在看到Emacs背景渐变后,展望未来NeoMACS(Emacs的某个实验性分支)或核心Emacs应该支持像Pretext那样的高级字体渲染,反映了Hacker对永远不满足于现状、不断追求更好工具的思维模式。
🛠️ 值得深入研究的点 (Follow-up)
研究主题:Emacs 31.1 的
:background-gradient和多 Face 功能- 建议: 深入研究Emacs 31.1的changelog,特别是与Face(
face-attribute)相关的部分。尝试使用渐变为mode-line、header-line、font-lock等元素创造更富视觉引导性的效果。可以进一步研究如何结合Lisp Condition System,实现根据代码状态(如编译错误、调试状态)动态切换Mode-Line颜色的方案。 - 链接: Emacs 31.1 NEWS文件。
- 建议: 深入研究Emacs 31.1的changelog,特别是与Face(
研究主题:轻量级 Wayland 终端模拟器 Foot 的 C/S 模式与性能调优
- 建议: 在Wayland环境下(如Sway、Hyprland、GNOME on Wayland),将
foot作为你的默认终端。对比其与kitty或ghostty在实际工作流(如打开编辑器、编译项目、运行大型应用日志)中的启动速度和响应延迟。阅读其文档,了解[main] terminal相关配置,特别是字体缩放、反走样等对视觉效果的影响。研究其C/S模式的实现原理,看能否进一步优化,例如在多个工作区中使用同一个后端实例。 - 链接: Foot 官方文档:
man foot或https://codeberg.org/dnkl/foot
- 建议: 在Wayland环境下(如Sway、Hyprland、GNOME on Wayland),将
研究主题:X11 分数倍缩放的平滑化方案
- 建议: 如果仍需在X11下工作,可以研究使用
XWayland或xrandr --scale等工具,结合特定的字体渲染配置(如Xft.dpi调整),来“欺骗”应用程序,从而获得比默认整数倍缩放更平滑的体验。但需注意,这可能会引入性能问题或窗口管理异常。这可以作为修复“2.8k显示尴尬”的一个临时或替代方案来探索。 - 链接: ArchWiki 的 HiDPI 相关词条(
HiDPI)。
- 建议: 如果仍需在X11下工作,可以研究使用
Emacs 轻聊讨论组
🎯 核心热点与专题探讨
专题一:GPT/OpenAI “薅羊毛”时代的终结
讨论热度: 极高。群内成员针对GPT Pro/Plus的免费渠道突然全面失效进行了深入且略带伤感的复盘。
核心痛点: 随着OpenAI风控系统升级,过去依赖业务逻辑漏洞(如谷歌内购、Business试用、印尼GoPay渠道)的低成本甚至免费使用途径已全线关闭。这标志着依靠漏洞的“搭便车”式低成本获取高级订阅服务(GPT Plus/Pro)的时期彻底结束。
各方观点:
- 技术层面分析: 群友明确指出,核心漏洞在于GPT未校验订单号与用户ID之间的逻辑关系,导致可以通过伪造订单直接开通服务。OpenAI修复了这一基础漏洞,导致此前依赖此漏洞的渠道全部失效。
- 受害者心态: 有群友感叹“一个时代,结束了”,表达了对廉价渠道消失的遗憾。
- 对行业的影响: 此次“清理”迫使所有重度用户必须面对原价订阅的现实,或者转向其他替代方案(如下面讨论的DeepSeek)。
解决方案与趋势:
- 转向国产替代方案: 群内明显将精力转向了DeepSeek,并分享其2.5折优惠延期到5月底的信息,成为新的“薅羊毛”目标。
- 差异化付费策略: 对于轻度用户,DeepSeek的按量计费(如日消费10-40元)似乎可以接受;但对于重度用户(如使用Codex、Neomacs等AI辅助编程工具),群友建议采用包月模式,以控制成本。
专题二:AI辅助编程的“成本焦虑”与“效率追求”
讨论热度: 高。成员们围绕DeepSeek、GPT、Claude等模型的日消费量、缓存命中率、以及“Vibe Coding”带来的开销进行了激烈讨论。
核心痛点: 在AI模型能力飞速提升的同时,其使用成本(尤其是高频调用时)成为摆在开发者面前的现实问题。群内呈现出“越高效,越费钱”的悖论。
各方观点与解决方案:
- 成本对比: 成员分享了各自在Kimi(日消费40元)、DeepSeek(日消费10-40元)以及Codex Max(2天用完周额度)上的开销,并评价“比用Claude Code省钱”。
- 技术对抗成本: 群友注意到DeepSeek的“Token缓存命中率”这一关键指标,并分享了高达99.4%的命中率(如Neomacs)。这表明AI模型在重复任务或大规模代码项目中的上下文复用能力极大地降低了单次调用的边际成本。有成员总结:“上下文越大会越好吧...估计我明天就能用上缓存了。”
- 工具选择策略: 对于代码量极大(如Emacs、Rust交易系统)的项目,成员认为使用GPT 5.5更“优秀”,尽管成本高;而DeepSeek则更适合有缓存命中、非实时性要求的任务。这引出了一个显性的决策框架:成本敏感型任务选DeepSeek(缓存友好型),性能敏感型任务选GPT-5.5(效果优先)。
🔑 关键概念与技术解析
Vibe Coding:一种描述性的编程方式,指开发者不再逐行手写代码,而是通过向AI描述意图(“让你的前端看起来更有vibe”),由AI生成大量代码。这种模式下,Token消耗极快,是造成AI服务使用成本飙升的主要原因之一(如“我今天vibe coding到codex plus周额度用完了”)。
GoPay 渠道(印尼): 一种绕过KYC(Know Your Customer,实名认证)的支付方式,通过使用印尼地区的支付服务GoPay申请GPT Plus的免费试用期。由于不要求严格的用户身份验证,一度成为低价Plus订阅的主要来源,现已失效。
Neomacs: 一个基于Emacs的现代、高性能编辑器,专注于支持AI辅助编程。其特点是内存占用低(-Q模式下仅85MB)、支持高效的上下文管理,社区以硬核、极客风格著称。文中提及的Neomacs用户的DeepSeek缓存命中率高达99.4%,显示了其设计对AI工作流的优化。
Token缓存命中率: 在AI模型(如DeepSeek)中,如果用户传入的文本(Prompt)与前一个用户的输入部分相同(例如处理相同的代码库或问题),则模型不必重新计算这部分内容,直接返回缓存结果。这个比率越高,表示模型“记住了”上下文,每Token的实际费用就越低,这对于长时间、重复性的AI工作流至关重要。
💎 碎片知识与金句拾遗
- “一个以问题为导向的知识迭代系统” —— 这是某位群成员对自己在开发项目的描述,听起来像是试图构建一个类似“冥想盆”(来自哈利波特中的记忆存储工具)的、基于个人学习轨迹进行自动推荐和追问的知识体系。
- “基于你的学习轨迹自动推荐,每天换一批。随心选择。” —— 关于如何实现前文知识系统的问题推荐机制的初步构想,核心是打破“信息茧房”。
- “我搞了一天,居然只有10块” vs. “我昨天晚上10点开始用 deepseek,到现在已经花了40了” —— 展示了同一工具在不同使用习惯下的成本差异,反映AI成本是一个非常个性化的变量。
- “你这种应该用包月的” —— 对高频AI用户的直接建议。
- “今天 vibe coding 一下吧” vs. “强制放假。” —— 完美的Vibe Coding生活写照:尽情享用AI,然后因额度用完而被迫休息。
- “emacs 的代码量...” —— 一种无可奈何的感叹,暗示用Emacs Lisp重写或维护一个大型Emacs配置/插件(mu4e客户端)需要巨大的代码量。
- “👨🍳古法编程,酱心制作” —— 手动美化终端(alacritty)的幽默自嘲,与“Vibe Coding”形成鲜明对比。
- “比 gnu/emacs 多,gnu/emacs 是78M” —— 对Neomacs内存占用“仅”85M的精确吐槽,体现了Emacs圈对性能的极致追求。
- “feyman is 这个挺好” —— 短评推荐项目Feynman.is,这是一个基于费曼技巧的教育/知识探索项目,与前述知识迭代系统理念相通。
🛠️ 值得深入研究的点 (Follow-up)
研究 DeepSeek 的 Token 缓存机制与 API 实践
- 为何要研究: 群内显示深度学习场景下,缓存命中率能从0%飙升至99.4%,直接改变成本模型。这对任何计划长期、大规模使用AI的开发团队或个人都具有战略意义。
- 怎么研究: 1) 查阅DeepSeek API文档,寻找关于缓存命中的指标(如
usage.cache_hit或类似字段)。2) 设计一个包含大量重复Prompt(如处理同一代码库、文档或问题集)的AI工作流,观察缓存命中率的变化。3) 学习如何利用“项目上下文”或“会话管理”来强制提高缓存命中率。
探索 Neomacs 与 AI 工作(Codex/Copilot CLI/Claude CLI)深度集成的实践
- 为何要研究: 群内提及Neomacs实现了高达99.4%的缓存命中率,且内存占用极低。这说明它可能拥有独特的上下文管理机制,是AI辅助编程的“极致玩法”。
- 怎么研究: 1) 启动安装Neomacs并查看其官方文档,理解其如何管理“项目”“缓冲区”和“AI会话”。2) 观察如何配置Codex/Claude CLI等工具与Neomacs的交互,尤其是如何自动注入项目文件结构、当前文件上下文和用户历史对话。3) 对比Neomacs与传统Emacs + Copilot/ChatGPT插件的性能差异。
打造个人“知识迭代系统”与“推荐引擎”(Feynman.is 模式探索)
- 为何要研究: 群内展示了浓厚的兴趣——从“冥想盆”到“基于学习轨迹的推荐算法”。这表明,如何有效、个性化地从模糊的问题中结构化知识,是开发者们共同的追求。
- 怎么研究: 1) 深入使用和学习Feynman.is(https://www.feynman.is/),研究其是如何收集和推荐用户问题的。2) 学习其底层架构,如果有开源的话,分析其推荐算法(可能基于简单的文本相似度、时序或更复杂的嵌入)。3) 思考如何用当前的大模型API(DeepSeek/GPT-5.5)结合短期和长期记忆,实现一个“每天换一批”的问题推荐器。核心是:如何打破信息茧房。
