我构建了一个 287,000 页的网站。以下是我对 Programmatic SEO 的收获。

发布: (2026年3月10日 GMT+8 09:37)
10 分钟阅读
原文: Dev.to

Source: Dev.to

大多数 SEO 建议归结为同一件事

  • 选定关键词。
  • 撰写文章。
  • 等待三个月。
  • 重复。

如果你想 10× 的流量,就要写 10× 的内容。当你只有一个人时,这种算式行不通。

不同的做法

大约一年前,我开始尝试一种 程序化 方法:

  • 与其逐篇撰写文章,我构建了一个 程序化生成页面 的系统。
  • 一个模板 + 一个数据管道 = 成千上万的输出页面
  • 每个页面针对一个特定的长尾关键词。

努力放在 构建机器 上,而不是喂养它。

项目:股票比较引擎

  • 输入 – 两个股票代码。
  • 输出 – 并排对比:财务数据、股息、增长指标等。
  • 规模 – 覆盖 12 种语言 的所有有意义的股票配对。

结果: 287,000 页 由个人独立构建。没有内容团队。

实际发生了什么

技术栈

ComponentRole
Astro静态站点生成 – 快速、SEO 友好,处理成千上万的路由
Supabase PostgreSQL数据层
yfinance API拉取金融数据
Local Llama 3为每个页面生成叙述性章节
Cloudflare CDN提供静态文件服务

每月总成本: 低于 $50

核心洞见

数据呈现 分离。

  • 数据库存储 8,000+ 股票代码的结构化金融数据。
  • 模板定义这些数据如何渲染为比较页面。
  • AI 填补空白——为每对股票生成独特的人类可读分析。

架构图

Data Layer (Supabase PostgreSQL)

ETL Pipeline (Python + yfinance)

Content Generation (Llama 3 – local)

Static Site Generator (Astro)

CDN (Cloudflare)

每一层都是独立的,换用其他技术(例如 Astro → Next.js,Llama 3 → Claude)都非常轻松。

长尾覆盖

  • 每个股票对 创建页面,捕获其他人未针对的搜索。
  • 示例:“随机小盘股 vs 另一个随机小盘股”几乎没有竞争。
  • 单个页面的流量很小,但 287k 页面累计的流量 仍然可观。

多语言支持

  • 模板和数据管道准备好后,翻译成 12 种语言主要是翻译模板字符串并重新生成页面。
  • 数字、代码、百分比保持不变。
  • 使用 AI 完成初稿,然后手动润色最重要的页面。

大规模 Schema 标记

  • 每个页面都包含 FinancialProductFAQBreadcrumbList schema。
  • 由于是程序化生成,你只需编写一次 schema,所有页面自动应用——手动在 287k 页面上实现几乎不可能。

稳定性

  • 构建管道是 静态的,由结构化数据生成,运行时几乎没有出错的可能。
  • 站点提供纯 HTML 文件——没有服务器端处理、页面加载时不查询数据库,也没有会崩溃的东西。

隐藏的问题:Google 不会为全新域名收录 287k 页面

  • 已收录页面: ~2,500(≈ 0.9 % 收录率)。
  • 根本原因:
    1. 没有域名权威——零反向链接,缺乏品牌认知。
    2. 内容相似度——叙事模式相似,触发 Google 的“有用内容”过滤,导致页面薄弱。
    3. 爬行预算——Googlebot 每天仅访问 200‑500 页;按此速度需要多年才能爬完全部页面,且 Google 不会爬取其认为价值低的页面。

逆向思维的解决方案:少而精,而不是多

  1. 狠砍页面

    • 将 287k 页面削减至 每种语言 5 k–30 k 页面
    • 只保留真实搜索需求的比较对(通过 Search Console 与关键词工具验证)。
  2. 加厚剩余页面

    • 添加行业背景、历史趋势分析、股息深度解析以及真正针对每个股票对的自定义 AI 生成洞察。
    • 目标是每个页面都能独立成为有价值的资源。
  3. 构建反向链接

    • 从目录提交开始(枯燥但必要)。
    • 再转向行业专属目录。
    • 进行有针对性的外联,争取 6 个月内域名评分 (Domain Rating) 达到 15+
  4. 优化爬行预算

    • 将庞大的站点地图拆分为更小的、基于主题的子站点地图。
    • 改善内部链接,使 Googlebot 通过站点结构而非仅靠站点地图发现重要页面。
    • 对低价值页面使用 noindex 标记。

当前指标(透明快照)

MetricCurrent
Total pages287,000
Pages indexed~2,500
Index rate0.9 %
Domain Rating0
Backlinks0
Monthly revenue$0
Monthly cost~ $50

看起来不太好,但基础设施正常运行

  • Data pipeline ✅
  • Content generation ✅
  • Site loads fast, passes Core Web Vitals ✅
  • Proper schema markup on every page ✅

唯一出问题的是Google 的信任——这是可以解决的。

Source:

程序化 SEO – 经验教训与实战手册

1. 索引与增长

  • 索引是瓶颈。 一旦页面开始被索引,增长会迅速叠加。
  • 每个已索引的页面都针对 低竞争关键词(几乎没有其他人排名)。
  • 拥有 12 种语言,可触达的市场规模巨大。

2. 从小做起

“如果可以重来,我会先上线 5 000 个页面,而不是 287 000 个。”

  • 先让一小批页面被索引。
  • 先验证模型有效,再进行规模化。
  • 在全新域名上一次性上线数十万页面,等同于让 Google 完全忽视你。

3. 你的数据来源 = 你的护城河

  • 任何人都可以复制模板;真正的优势在于 全面、难以复制的数据来源
  • 示例:通过 yfinance 获取的金融数据——免费、结构化,覆盖数千个实体。
  • 问自己:我能获取哪些数据是其他人难以大规模复制的?

4. 模板 + AI 混合 – 最佳组合

方法优点缺点
纯模板页面快速、成本低内容薄弱 → 被 Google 标记
纯 AI 生成页面高度独特成本高,质量不稳定
混合(结构化数据 + AI 叙事)可扩展、独特、质量更高需要精细的编排
  • 使用模板渲染结构化数据。
  • 用 AI 生成叙事部分,提升价值和独特性。

5. 从第一天起就预算用于获取外链

  • 优质内容 不会在域名权威为零时自动获得链接
  • 将获取外链作为启动计划的核心,而不是事后补救。

6. 必须保持耐心

  • 程序化 SEO 不是 “上线即排名” 的策略。
  • 将其视为一个会随时间复利的 基础设施
  • 6 个月会感觉进展缓慢——这很正常。

7. 文档化与透明化

  • 我正在记录所有内容:
    • 完整的技术架构
    • 每一个用于内容生成的提示词
    • 盈利路线图
    • 错误与经验教训

8. 程序化 SEO 蓝图

一份完整指南,涵盖:

  1. 利基选择
  2. 数据架构
  3. AI 内容生成工作流
  4. Astro/Next.js 实现细节
  5. SEO 基础设施与索引方案
  6. 盈利策略
  7. 所有代码示例均采用 MIT 许可证

9. 结束语与行动号召

  • 如果你正考虑搭建程序化 SEO 站点,大胆去做——只要从小开始。
  • 关注我,获取更多关于构建程序化 SEO 站点以及索引情况演变的更新。

本文由《程序化 SEO 蓝图》作者撰写。

0 浏览
Back to Blog

相关文章

阅读更多 »