-
Web3.0漫谈:一些基本概念的理解(一)
在 Web3 及区块链技术的领域里,很多概念和技术架构的实现不仅是为了优化传统体系的痛点,更是为了构建一种新的信任机制。 这些概念的背后,蕴含着对去中心化、信任、效率等核心价值的深刻思考。 我在这篇文章中,将从以下几个核心技术概念入手,结合实际场景,简单探讨这些概念如何影响 Web3 的架构与应用。 一、去中心化的真正意义:从信任重构到实际应用区块链的核心价值不仅仅在于 降低成本,而是在于... -
模型的本质:函数、常量与结构的工程化
以 YOLOv7 为起点,从模型的静态结构与动态参数出发,探讨神经网络的工程本质:函数组合、常量拟合与输入输出映射。并在文末简要对齐语言模型的输入机制…
-
模型不是魔法:神经网络结构的去魅、可视化与图形化困境
神经网络模型到底是个什么东西?为什么像Netron这样的工具可以把它展示成结构图?如果模型真的只是堆叠的计算图,那为什么“图形化建模工具”却一直没有火?本文尝试从工程视角拨开模型的神秘面纱,回到本质。
-
LLM Agent 的幻象:复杂 Prompt 编排的尽头,仍是语言直觉生成器
当前所有的 Agent 架构都构建在 LLM 的语言生成能力之上,本质仍是语言直觉的延展。ReAct、AutoGPT、CrewAI 等看似模块化的智能行为,最终都难以逃离 Prompt 的逻辑边界。本文从 LLM 本质出发,揭示当前 Agent 技术的结构幻象…
-
从 Context Engineering 谈人类使用 LLM 的本质
人类与 LLM 的交互,本质上是一场通过文字操控注意力的游戏。所谓 Context Engineering,并不是花哨的系统设计,而是围绕着“如何组织文字,让模型关注我想让它关注的东西”这一终极问题展开…
-
Agent 执行策略五种模式对比:文本流动路径与成本分析
通过文本传递链路与信息流动量,深入解析五种常见 Agent 执行策略,帮助设计高效且性价比合理的 AI 流程…
-
AI Coding 漫谈:从写轮子到 Cursor 的未来布局
AI Coding 的意义不在于替代人类写复杂系统,而是极大降低造简单轮子的时间成本,释放了更多创意的空间。Cursor 正在用实际行动验证:也许未来胜出的不是谁的模型大,而是谁能教会 AI 更好地遵循编程习惯…
-
AI 协作工具的隐性风险:集体信息质量的系统性塌陷
1. AI 协作工具:表面效率,实质灌水现在大量流行的 AI 协作工具: 自动会议纪要 自动文案生成 自动知识库同步 AI Agent 写作、编程协助 它们确实大幅提升了信息生成的速度,但仔细观察就会发现: 它们生成的信息,极大概率是内核相似、表达冗余、逻辑稀薄的「伪信息」或「信息副本」。 这就像: 发动机持续运转,制造出成堆的低质量产品。 信息社会表面上是高产,实际上是虚胖。 ... -
信息爆炸的本质:压缩、解压与语义冗余
1. 人类总结是信息压缩人类在长期学习和经验积累后,往往会提炼出一些高度总结的精辟言论,这其实就是对复杂信息的一次有效压缩。这种压缩类似于哈夫曼编码:我们优先保留高频且具代表性的信息,丢弃冗余的细节,最终得到可快速传递的结论。 然而,这种压缩也存在一个代价:被压缩的信息,在不同语境下会被解读为不同的东西,压缩过程不可避免地丢失了部分语义,导致理解有时会发生偏差。 2. LLM 提取的是信息... -
浅谈LLM的智能感:语言模式的模仿与推理
LLM(大型语言模型)通过总结和推断大量语言数据,模仿人类语言的组织方式,展现出似乎具备“智能”的效果。然而,这种智能感并非源自模型的认知能力,而是通过学习语言的规律,模拟出类似于人类的表达方式。本文探讨了LLM如何通过语言模式的模仿展现出推理能力,揭示了其智能感的来源和局限…