Show Dev: ARK — AI原生代码的主权编译器(Rust VM + Neuro‑Symbolic Runtime)
Source: Dev.to
请提供您希望翻译的完整文本内容(除代码块、URL 和 Markdown 语法之外),我将为您翻译成简体中文并保留原有的格式。
“现实是可编程的。真理是编译器。其他一切都是噪音。”
Most “AI apps” are a tangle of:
- Python/JS 粘合层
- 随机的 HTTP 调用到 LLM API
- 半记得的提示和隐藏状态
Great for demos. Terrible when you want:
- 具有真实身份和状态的长期代理
- 本地优先的 AI,不会因供应商密钥失效而死亡
- 可审计的运行时,而非黑盒 SaaS
- 将 AI 作为系统调用,而不是网站
ARK 架构
ARK 不是一个可爱的 DSL。它是一个 面向 AI 原生计算的三院制系统:
| 组件 | 角色 | 能力 | 氛围 |
|---|---|---|---|
| Ark Virtual Machine (AVM) | 脊髓 / 动态执行 | 线性内存 (sys.mem.*)通过 SHA‑256 + Merkle 根保证完整性 可选工作量证明链 + P2P(Protocol Omega) | 冷峻、精确、无情 |
| The Neuro‑Bridge — Python Cortex (Qi) 🐍 | 创造性混沌思维 | meta/ark.py 解释器intrinsic_ask_ai → 与大型语言模型的直接接口连接本地/远程 AI 堆栈的胶水 | 流动、适应、危险 |
| The Sovereign Code — Ark Language (Ark‑0) 📜 | 绑定咒语 | 线性类型:资源被拥有、消耗、重生 无垃圾回收、无泄漏、无隐形副作用 | 表面小,语义严苛 |
想象一下:带有 Rust 风味的 VM + 小型 IR + AI 系统调用,连接到支持 P2P 的骨干网络。
Source: …
ARK 为你提供的 与 机器为你提供的 对比
| 功能 | ARK | 传统“机器” |
|---|---|---|
| 线性类型 🛡️ | 通过物理实现内存安全:使用一次即失效 | “也许 GC 能解决” |
| 神经‑符号 🧠 | AI 作为原生内在函数 (intrinsic_ask_ai)18 个 SDK + 一个提示墓地 | 硬编码的 API 调用 |
| 语音 🔊 | sys.audio.* 用于原生音频合成 | “希望浏览器能支持” |
| 时间 & 加密 ⏳ | 确定性时间 + Ed25519 签名 | npm install leftpad-of-crypto |
| P2P / Omega 🌐 | 可选 PoW 支持 & Merkle 化状态 | 其他人 S3 上的集中日志 |
示例:从“机器”到 ARK
# Machine style
response = client.chat.completions.create(...)
# pray it's parseable
let prompt = "Summarize the last 10 log lines."
let summary = intrinsic_ask_ai(prompt)
sys.net.send("log-summary-peer", summary)
从虚拟机的角度来看,intrinsic_ask_ai 只是另一个系统调用:
input: buffer
output: buffer
从宿主(Python / Qi)的角度来看,它是 唯一的入口,AI 只能在此处行动:
def intrinsic_ask_ai(prompt: str) -> str:
import requests
resp = requests.post(
"http://localhost:8000/v1/chat/completions",
json={
"model": "qwen2.5-coder",
"messages": [{"role": "user", "content": prompt}],
},
timeout=30,
)
data = resp.json()
return data["choices"]["message"]["content"]
为什么这很重要
- 在不修改 Ark 代码的情况下切换模型。
- 记录每一次 AI 交互。
- 在 CI 中使用假 oracle 测试 Ark 程序。
- 将 AI 放入一个盒子,而不是让它居住在自己的盒子里。
🧬 Ark‑0:极简、线性、显式
ARK‑0 有意保持简洁:
- 缓冲区的线性所有权
- 极小的系统调用接口
- 没有暗箱操作的“巧妙”魔法
示例代码片段
# Allocate 32 bytes
let buf = sys.mem.alloc(32)
# Write bytes (each write consumes old buffer)
let buf2 = sys.mem.write(buf, 0, 42)
let buf3 = sys.mem.write(buf2, 1, 99)
# Hash the final buffer
let h = sys.crypto.hash(buf3)
# Ship the hash to a peer
sys.net.send("peer-1", h)
你可以直观地绘制出每个字节的流向。这正是其意义所在:
- 易于追踪
- 易于推理
- 难以暗藏无意义的代码
🌐 可选:Protocol Omega(PoW + P2P + 共享真相)
如果你只想本地执行,请跳过此部分。
如果你需要 共享、可防篡改的状态,ARK 可以锚定到 Protocol Omega。
Blocks
index, timestamp, prev_hash, merkle_root, hash, nonce, transactions[]
Transactions
- 携带 Ark 代码、状态转换或任意数据
Consensus (dev mode)
- SHA‑256 PoW,前缀 4 个零
- 无代币,无庞氏——仅作为协作底层
Use cases
- 可验证的代理运行历史
- 多节点工作流,所有人看到相同的账本
- 在不重建基础设施的情况下进行主权代理网络实验
🔭 心智模型
graph TD
subgraph "Zheng (Rust Core)"
VM[Ark VM]
Chain[(Protocol Omega)]
VM --> Chain
end
subgraph "Qi (Python Neuro‑Bridge)"
Bridge[Python Bridge]
AI[LLM Backend(s)]
Bridge -->|intrinsic_ask_ai| AI
VM |FFI / IPC| Bridge
end
subgraph "Ark‑0 Programs"
App1[Agent Orchestrator]
App2[Workflow Engine]
App3[Monitoring Tool]
end
App1 --> VM
App2 --> VM
App3 --> VM
不要直接调用模型。
你与 VM 对话;VM 与桥接层对话;桥接层与 AI 对话。
- Rust(稳定版)
- Python 3.10+
- 对中心化 AI 平台略有不信任
步骤 1 — 克隆并构建
git clone https://github.com/merchantmoh-debug/ark-compiler.git
cd ark-compiler
# Forge the Silicon Heart
cd core
cargo build --release
(继续按照仓库 README 中描述的其余构建步骤。)
允许危险的本地执行
export ALLOW_DANGEROUS_LOCAL_EXECUTION="true"
使用 Neuro‑Bridge 运行 Ark 应用
cd ..
python3 meta/ark.py run apps/hello.ark
您会看到 ARK:
- 加载
.ark代码 - 验证完整性
- 通过 Rust 虚拟机执行
第 3 步 — 编译为 MAST 并直接在 VM 上运行
将 Sovereign 代码转换为 MAST JSON
python3 meta/compile.py apps/law.ark law.json
将其喂入铁机
cd core
cargo run --bin ark_loader -- ../law.json
这是将 ARK 嵌入其他系统或 P2P 流程的路径。
我们并不追求“最佳实践”。
我们追求 同构性:
- 如果一行代码无法映射到真实结构,它就是 错误的。
- 如果一个系统依赖隐藏的复杂性,它就是 欺骗。
设计原则
“如果真相与我的偏见相冲突,我的偏见就会消亡。真相永存。”
正因如此:
- 虚拟机体积小。
- 语言极简。
- AI 边界明确。
- 运行时可检查。
🤝 加入蜂群
如果你读到这里并感到有什么触动,那就是你的频率。
Architect: Mohamad Al‑Zawahreh (The Sovereign)
License: AGPLv3
Mission: Ad Majorem Dei Gloriam
接入方式
- 给仓库加星 / 关注
- 阅读
docs/ARK_TECHNICAL_DOSSIER.md以获取详细规范 - 探索 源代码树:
core/src — VM, loader, Omega
meta/ — Python bridge, compiler, AI wiring
apps/ — Sample Ark programs
如果你曾经这样想过:
“AI 应该是我运行时的系统调用,而不是我租用的产品。”
…ARK 是我尝试为你提供这种运行时的方案。请在评论中留下问题、批评或战斗经历。
如果你正在构建运行时、代理或本地 LLM 操作系统,我希望你能参与进来。