为什么我的 AI 崩溃重建 MVP 还未准备好投入生产(以及我为何重新构建它)
Source: Dev.to
Demo Phase and Initial Prototype
我使用 React、Vite 和 Gemini 3 Pro SDK 构建了 Incident Lens AI——一个用于事故重建的取证视频分析套件,采用前端优先的概念验证方式。浏览器直接将视频帧和音频流式传输到大语言模型(LLM),模型随后对事故进行推理,生成责任时间线、引用交通法规,并输出结构化 JSON 供交互式仪表盘使用。这种方式让我能够快速迭代 UI,并在没有任何后端基础设施的情况下验证多模态概念。
Why the Original Architecture Won’t Scale
Security Concerns
从客户端向公共 LLM API 发送原始行车记录仪或监控摄像头 footage 对任何处理敏感数据和个人身份信息的企业来说都是不可接受的。没有保险试点项目会批准这种数据暴露风险。
Hallucination and Accuracy Issues
LLM 不是物理引擎。我的最初文档声称 AI 可以通过摄影测量和运动力学计算车辆速度,但在缺乏精确相机校准的情况下,模型只是在猜测。在法庭上,“AI 估算”的速度很容易被质疑并被驳回。
Moving to a Hybrid Architecture
Deterministic Backend Processing
我正在将繁重的计算转移到安全的 Python 后端,使用确定性的计算机视觉工具(例如 OpenCV)提取硬数据:像素速度、精确碰撞坐标以及其他可测量量。这些数值再喂入已确立的物理公式,以计算实际的速度和冲击力。
Role of Gemini LLM
一旦确定性数据准备完毕,Gemini 再次进入流水线,执行它最擅长的工作:交叉引用案例法、合成时间线并生成可读的人类报告。此分离确保最终报告既在数学上可靠,又在法律上具有说服力。
Next Steps and Call for Collaboration
当前代码库仍作为概念验证保留,用于展示取证领域多模态 AI 的愿景。真正的工程工作——使系统安全、确定且具法律防御力——现在才开始。如果你正从 AI 原型跳转到零信任行业的生产环境,欢迎分享你的做法,我很乐意听取。
Frontend Prototype
你可以在这里查看前端原型:
Production Vision for Incident Lens AI
Incident Lens AI 旨在成为面向保险公司、法律辩护团队和车队安全管理者的生产级平台。它利用 Google Gemini 3 Pro 的多模态能力,将非结构化视频证据(行车记录仪、监控摄像头、随身摄像头)转化为法律可采纳的取证重建。
Key Features
-
Autonomous Reconstruction
- Physics Engine: 通过摄影测量和运动模糊分析计算车辆速度 ((v = d/t))。
- Signal Inference: 通过分析交叉车流和行人行为推断被遮挡的红绿灯状态。
- Debris Field Analysis: 根据玻璃碎片轨迹和液体喷溅模式重建冲击向量。
-
Legal Admissibility
- Search Grounding: 使用 Gemini 引用具体法规和案例法,使每一项主张都有可验证的法律依据。
如果你有兴趣贡献或了解更多,欢迎联系或在 GitHub 仓库提交 pull request。