AI 지원 소프트웨어 엔지니어링을 위한 누락된 제어 레이어로서의 형식 의미론
Source: Dev.to
Recent Research Overview (2025)
Key Insight:
Across requirements engineering, formal methods, program verification, and AI‑native tooling, a shared pattern emerges: Large language models (LLMs) can significantly assist software construction only when meaning is made explicit, structured, and formally constrained.
Without such constraints, AI‑driven development struggles with reproducibility, explainability, and long‑term maintainability.
This article synthesizes recent peer‑reviewed papers, empirical studies, and formal‑methods research to show how explicit semantics, formal specifications, and deterministic acceptance mechanisms together form the foundation for a more reliable, scalable form of AI‑assisted software engineering. While no single work proposes a complete end‑to‑end paradigm, the individual building blocks are now clearly visible.
Requirements Are Not Documentation — They Are Control Structures
A central shift in the 2025 literature is the reframing of requirements. Rather than being treated as descriptive artifacts, requirements are increasingly understood as structuring and controlling inputs for AI systems.
| Study | Contribution |
|---|---|
| Ferrari & Spoletini – Two‑way roadmap on formal requirements engineering and LLMs | Positions formal requirements as a means to improve controllability, explainability, and verifiability when using LLMs in software development. Argues that formalized requirements provide a structural interface between human intent and machine generation. |
| Caporusso & Perdue – ISCAP 2025 | Empirically demonstrates that a requirements‑first workflow (structured specifications generated before invoking LLMs for code) yields measurably higher quality outputs than direct prompt‑to‑code approaches. |
| Lu et al. – Multi‑agent vision for requirements development and formalization | Proposes a system where requirements are actively refined and formalized before downstream code generation. Highlights “requirements → formalization” as a first‑class quality lever. |
Emerging Pattern: Not AI versus formal methods, but AI embedded within formal control.
Division of Responsibility: AI vs. Formal Mechanisms
Another consistent theme in 2025 research is a clear division of responsibility:
- AI excels at proposing candidate artifacts (contracts, post‑conditions, annotations, documentation).
- Formal mechanisms retain deterministic decision‑making about correctness, validity, or acceptance.
| Study | Role of AI | Role of Formal Methods |
|---|---|---|
| Teuber & Beckert – LLM‑supported Java verification | Generate candidate JML specifications. | Deductive verification acts as an acceptance gate. |
| Zhang, Wang & Zhai – Post‑condition inference | Infer meaningful post‑conditions (even with relatively small models). | Demonstrates feasibility of downstream checking. |
| Recio Abad et al. – Formal JML context for Java documentation | Produce Java documentation. | Formal JML specifications discipline AI outputs, even without full formal proofs. |
Semantic Consistency as a System‑Level Property
Beyond individual artifacts, several 2025 contributions address semantic consistency at the system level.
-
Model‑Based Systems Engineering – Cibrián et al.
Encode semantic constraints at the metamodel level and automatically validate them across complex SysML v2 model landscapes. -
AI‑Native Compiler Discourse – Cogo, Oliva & Hassan
Identify reproducibility and interoperability as core unresolved challenges when translating high‑level intent into executable systems. -
Governance Perspective – Think7 policy work on “Rules as Code” (2025)
Transform intent and regulation into machine‑executable representations to improve transparency, traceability, and consistency.
Limits of Purely Intent‑Driven (Conversati
Source: …
onal) 접근 방식
순수 대화형 프로그래밍 패러다임은 시스템이 복잡해짐에 따라 구조적 한계에 직면합니다.
| 연구 | 발견 |
|---|---|
| Bamil – Vibe coding | 대화형 상호작용을 통해 주로 코드를 생성할 때 재현성, 유지보수성, 설명 가능성과 관련된 어려움을 강조합니다. |
| Sarkar & Drosos – Empirical work | 대화형 프로그래밍 도구를 사용하는 개발자는 신뢰를 구축하기 위해 반복적인 검사와 수동 검증에 크게 의존해야 합니다. |
| Sapkota et al. – Vibe coding vs. agentic approaches | 공식적인 수용 기준이 부족한 것이 핵심 제한 사항임을 강조합니다. |
통합 결론
- 명시적이고 형식적인 의미론은 확장 가능하고 신뢰할 수 있는 AI‑지원 소프트웨어 엔지니어링을 위한 핵심 촉진 요소입니다.
- LLM은 형식적 산출물을 제안하는 데 적합하며, 형식 검증이 최종 근거를 제공합니다.
- 결정론적 수용 메커니즘은 기술적으로 실현 가능하며 이미 특정 분야에서 입증되었습니다.
- 의미가 명시적으로 모델링되는 경우, 시스템 수준에서 의미 일관성을 강제할 수 있습니다.
- 현재까지 전체 패러다임을 종단까지 다루는 연구는 없지만, 필요한 형식적 구성 요소는 명확히 식별됩니다.
핵심 요점: 2025년 연구에서 떠오르는 모습은 자동화가 규율을 대체하는 것이 아니라, 규율이 자동화를 가능하게 하는 모습입니다. AI는 소프트웨어 구축을 가속화할 수 있지만 — 명시적 의미론, 형식 사양, 그리고 결정론적 검증의 프레임워크에 내재될 때만 가능합니다.
의미‑우선 AI‑지원 소프트웨어 엔지니어링
semantic‑first AI‑지원 소프트웨어 엔지니어링으로의 전환은 형식 사양, 결정론적 수용, 그리고 계약‑주도 개발의 필요성을 강조합니다. 이 관점은 Secos Rocks와 같은 적용 사례와 일치하며, 이들은 의미‑우선 및 계약‑주도 접근 방식을 통해 AI‑지원 소프트웨어 구축을 연구합니다.
따라서 AI‑지원 소프트웨어 엔지니어링의 미래는 프롬프트‑주도 즉흥이 아니라 의미‑중심 구축입니다.
참고문헌
- Ferrari, A.; Spoletini, P. (2025). Information and Software Technology, 권 181, 2025년 5월, 107697.
- Caporusso, N.; Perdue, J. (2025). Proceedings of ISCAP 2025.
- Lu, Y.; et al. (2025). arXiv:2508.18675.
- Teuber, S.; Beckert, B. (2025). arXiv:2502.01573.
- Zhang, G.; Wang, Z.; Zhai, J. (2025). arXiv:2507.10182.
- Recio Abad, J.; et al. (2025). arXiv:2506.09230.
- Cibrián Sánchez, E.; et al. (2025). IEEE Access 2025.3587786.
- Cogo, F. R.; Oliva, G. A.; Hassan, A. E. (2025). arXiv:2510.24799.
- Rapson, J.; et al. (2025). Think7 (G7) Policy Brief.
- Bamil, V. (2025). arXiv:2510.17842.
- Sarkar, A.; Drosos, I. (2025). arXiv:2506.23253.
- Sapkota, S.; et al. (2025). arXiv:2505.19443.