Show Dev: ARK — AI原生代码的主权编译器(Rust VM + Neuro‑Symbolic Runtime)

发布: (2026年2月12日 GMT+8 19:13)
8 分钟阅读
原文: Dev.to

Source: Dev.to

请提供您希望翻译的完整文本内容(除代码块、URL 和 Markdown 语法之外),我将为您翻译成简体中文并保留原有的格式。

“现实是可编程的。真理是编译器。其他一切都是噪音。”

Most “AI apps” are a tangle of:

  • Python/JS 粘合层
  • 随机的 HTTP 调用到 LLM API
  • 半记得的提示和隐藏状态

Great for demos. Terrible when you want:

  • 具有真实身份和状态的长期代理
  • 本地优先的 AI,不会因供应商密钥失效而死亡
  • 可审计的运行时,而非黑盒 SaaS
  • 将 AI 作为系统调用,而不是网站

ARK 架构

ARK 不是一个可爱的 DSL。它是一个 面向 AI 原生计算的三院制系统

组件角色能力氛围
Ark Virtual Machine (AVM)脊髓 / 动态执行线性内存 (sys.mem.*)
通过 SHA‑256 + Merkle 根保证完整性
可选工作量证明链 + P2P(Protocol Omega)
冷峻、精确、无情
The Neuro‑Bridge — Python Cortex (Qi) 🐍创造性混沌思维meta/ark.py 解释器
intrinsic_ask_ai → 与大型语言模型的直接接口
连接本地/远程 AI 堆栈的胶水
流动、适应、危险
The Sovereign Code — Ark Language (Ark‑0) 📜绑定咒语线性类型:资源被拥有、消耗、重生
无垃圾回收、无泄漏、无隐形副作用
表面小,语义严苛

想象一下:带有 Rust 风味的 VM + 小型 IR + AI 系统调用,连接到支持 P2P 的骨干网络。

Source:

ARK 为你提供的 与 机器为你提供的 对比

功能ARK传统“机器”
线性类型 🛡️通过物理实现内存安全:使用一次即失效“也许 GC 能解决”
神经‑符号 🧠AI 作为原生内在函数 (intrinsic_ask_ai)
18 个 SDK + 一个提示墓地
硬编码的 API 调用
语音 🔊sys.audio.* 用于原生音频合成“希望浏览器能支持”
时间 & 加密确定性时间 + Ed25519 签名npm install leftpad-of-crypto
P2P / Omega 🌐可选 PoW 支持 & Merkle 化状态其他人 S3 上的集中日志

示例:从“机器”到 ARK

# Machine style
response = client.chat.completions.create(...)
# pray it's parseable
let prompt  = "Summarize the last 10 log lines."
let summary = intrinsic_ask_ai(prompt)
sys.net.send("log-summary-peer", summary)

从虚拟机的角度来看,intrinsic_ask_ai 只是另一个系统调用:

input:  buffer
output: buffer

从宿主(Python / Qi)的角度来看,它是 唯一的入口,AI 只能在此处行动:

def intrinsic_ask_ai(prompt: str) -> str:
    import requests
    resp = requests.post(
        "http://localhost:8000/v1/chat/completions",
        json={
            "model": "qwen2.5-coder",
            "messages": [{"role": "user", "content": prompt}],
        },
        timeout=30,
    )
    data = resp.json()
    return data["choices"]["message"]["content"]

为什么这很重要

  • 在不修改 Ark 代码的情况下切换模型。
  • 记录每一次 AI 交互。
  • 在 CI 中使用假 oracle 测试 Ark 程序。
  • 将 AI 放入一个盒子,而不是让它居住在自己的盒子里。

🧬 Ark‑0:极简、线性、显式

ARK‑0 有意保持简洁:

  • 缓冲区的线性所有权
  • 极小的系统调用接口
  • 没有暗箱操作的“巧妙”魔法

示例代码片段

# Allocate 32 bytes
let buf = sys.mem.alloc(32)

# Write bytes (each write consumes old buffer)
let buf2 = sys.mem.write(buf, 0, 42)
let buf3 = sys.mem.write(buf2, 1, 99)

# Hash the final buffer
let h = sys.crypto.hash(buf3)

# Ship the hash to a peer
sys.net.send("peer-1", h)

你可以直观地绘制出每个字节的流向。这正是其意义所在:

  • 易于追踪
  • 易于推理
  • 难以暗藏无意义的代码

🌐 可选:Protocol Omega(PoW + P2P + 共享真相)

如果你只想本地执行,请跳过此部分。
如果你需要 共享、可防篡改的状态,ARK 可以锚定到 Protocol Omega。

Blocks

index, timestamp, prev_hash, merkle_root, hash, nonce, transactions[]

Transactions

  • 携带 Ark 代码、状态转换或任意数据

Consensus (dev mode)

  • SHA‑256 PoW,前缀 4 个零
  • 无代币,无庞氏——仅作为协作底层

Use cases

  • 可验证的代理运行历史
  • 多节点工作流,所有人看到相同的账本
  • 在不重建基础设施的情况下进行主权代理网络实验

🔭 心智模型

graph TD
  subgraph "Zheng (Rust Core)"
    VM[Ark VM]
    Chain[(Protocol Omega)]
    VM --> Chain
  end

  subgraph "Qi (Python Neuro‑Bridge)"
    Bridge[Python Bridge]
    AI[LLM Backend(s)]
    Bridge -->|intrinsic_ask_ai| AI
    VM |FFI / IPC| Bridge
  end

  subgraph "Ark‑0 Programs"
    App1[Agent Orchestrator]
    App2[Workflow Engine]
    App3[Monitoring Tool]
  end

  App1 --> VM
  App2 --> VM
  App3 --> VM

不要直接调用模型。
你与 VM 对话;VM 与桥接层对话;桥接层与 AI 对话。

  • Rust(稳定版)
  • Python 3.10+
  • 对中心化 AI 平台略有不信任

步骤 1 — 克隆并构建

git clone https://github.com/merchantmoh-debug/ark-compiler.git
cd ark-compiler

# Forge the Silicon Heart
cd core
cargo build --release

(继续按照仓库 README 中描述的其余构建步骤。)

允许危险的本地执行

export ALLOW_DANGEROUS_LOCAL_EXECUTION="true"

使用 Neuro‑Bridge 运行 Ark 应用

cd ..
python3 meta/ark.py run apps/hello.ark

您会看到 ARK

  1. 加载 .ark 代码
  2. 验证完整性
  3. 通过 Rust 虚拟机执行

第 3 步 — 编译为 MAST 并直接在 VM 上运行

将 Sovereign 代码转换为 MAST JSON

python3 meta/compile.py apps/law.ark law.json

将其喂入铁机

cd core
cargo run --bin ark_loader -- ../law.json

这是将 ARK 嵌入其他系统或 P2P 流程的路径。

我们并不追求“最佳实践”。
我们追求 同构性

  • 如果一行代码无法映射到真实结构,它就是 错误的
  • 如果一个系统依赖隐藏的复杂性,它就是 欺骗

设计原则

“如果真相与我的偏见相冲突,我的偏见就会消亡。真相永存。”

正因如此:

  • 虚拟机体积小。
  • 语言极简。
  • AI 边界明确。
  • 运行时可检查。

🤝 加入蜂群

如果你读到这里并感到有什么触动,那就是你的频率。

Architect: Mohamad Al‑Zawahreh (The Sovereign)

License: AGPLv3

Mission: Ad Majorem Dei Gloriam

接入方式

  • 给仓库加星 / 关注
  • 阅读 docs/ARK_TECHNICAL_DOSSIER.md 以获取详细规范
  • 探索 源代码树:
core/src   — VM, loader, Omega
meta/      — Python bridge, compiler, AI wiring
apps/      — Sample Ark programs

如果你曾经这样想过:

“AI 应该是我运行时的系统调用,而不是我租用的产品。”

…ARK 是我尝试为你提供这种运行时的方案。请在评论中留下问题、批评或战斗经历。

如果你正在构建运行时、代理或本地 LLM 操作系统,我希望你能参与进来。

0 浏览
Back to Blog

相关文章

阅读更多 »

KAIzen — AI 时代对敏捷的需求

一家游戏公司的小团队如何将流效率从 32% 提升到 85%——通过改变我们提供给 AI 的内容。我们的团队严格遵循 Scrum:两周的 s...