채용: AI‑네이티브 부트 인프라 구축을 위한 커널 개발자 모집
I’m happy to translate the article for you, but I’ll need the full text you’d like translated. Could you please paste the content (or the portion you want translated) here? I’ll keep the source line exactly as you provided and preserve all formatting, markdown, and technical terms.
개념 증명을 실제 프로덕션으로 전환하기
저는 HejHdiss이며, 솔직히 말씀드리자면 저는 순수 C와 일부 표준 라이브러리, 그리고 일부 POSIX C를 아는 독학 C 프로그래머입니다—하지만 커널 개발에 대한 깊은 경험은 전혀 없습니다. 그럼에도 불구하고 저는 리눅스 커널 모듈 프로젝트에 대한 도움을 요청하고 있습니다.
Why?
저는 아직 존재하지 않는 무언가에 대한 비전을 가지고 있으며, 제 지식이 허락하는 한 최선을 다해 구현해 왔습니다. 이제 그것을 실현하기 위해 전문가들의 도움이 필요합니다.
The Project: NeuroShell LKM
- Repository:
- Purpose: /sys/kernel/neuroshell/ 를 통해 상세한 하드웨어 정보를 노출하는 Linux 커널 모듈입니다.
- What it detects:
- CPU
- 메모리
- NUMA 토폴로지
- GPU (NVIDIA, AMD, Intel)
- AI 가속기 (TPU, NPU 등)
Full disclosure: 커널 수준 코드는 대부분 Claude(Anthropic의 AI)가 생성했습니다. 저는 프롬프트를 작성하고, 기능을 검증했으며, 실제 하드웨어에서 모듈을 테스트했습니다. 작동은 하지만, 이는 개념 증명일 뿐이며 프로덕션에 바로 사용할 수 있는 코드는 아닙니다.
Example Output
$ cat /sys/kernel/neuroshell/system_summary
=== NeuroShell System Summary ===
CPU:
Online: 8
Total: 8
Memory:
Total: 16384 MB
NUMA:
Nodes: 1
GPUs:
Total: 1
NVIDIA: 1
Accelerators:
Count: 0
기본적인 수준이며 작동합니다. 하지만 실제로 필요한 수준에는 아직 멀었습니다.
더 큰 비전: NeuroShell OS
나는 전체 비전에 대해 여기서 다루었다: NeuroShell OS – AI‑네이티브 컴퓨팅을 위한 부팅‑시 설계 재고. 이 글에서는 다음과 같은 부팅‑시 시스템을 설명한다:
- 사용자 공간이 시작되기 전, 초기 부팅 단계에서 AI 하드웨어를 탐지
- 감지된 하드웨어에 기반해 동적으로 리소스를 할당
- 부트로더와 통합하여 커널이 완전히 로드되기 전에 하드웨어 인식 결정을 수행
- 텐서 연산 및 AI 워크로드에 특화된 메모리 토폴로지를 최적화
- GPU/TPU/NPU 토폴로지를 이해하는 하드웨어‑인식 스케줄러 훅 제공
- 데이터센터 환경에서 동적 하드웨어 변화를 위한 핫‑플러그 이벤트 처리
- AI 프레임워크 최적화를 위한 실시간 성능 메트릭 노출
현재 모듈은 일부 PCI 장치를 읽고 sysfs 속성을 노출할 뿐이다. 이는 비전이 요구하는 것에 비하면 장난감 수준이다.
내가 솔직히 할 수 없는 것들
| Area | Gap |
|---|---|
| Deep Kernel Integration | 부트로더, init 시스템, 혹은 초기 부팅 시퀀스와 통합하는 방법을 모릅니다. C 함수를 작성할 수는 있지만, 적절한 시점에 올바른 위치에 훅을 걸 수 있을 만큼 커널 서브시스템을 충분히 이해하고 있지 않습니다. |
| Performance & Concurrency | 코드에 잠금 메커니즘이 없으며 SMP 안전하지 않습니다. 이를 제대로 고치기 위한 커널 동기화 프리미티브에 대한 지식이 부족합니다. |
| Security Hardening | 버퍼 오버플로 위험이 존재하고, 입력 검증이 없으며, 아마도 내가 알지 못하는 많은 다른 보안 문제가 있을 것입니다. |
| Advanced Hardware APIs | PCI 열거 작업을 겨우 시작했을 뿐입니다. 실제 하드웨어 인트로스펙션에는 다음이 필요합니다: • PCIe 토폴로지 매핑 • IOMMU 구성 인식 • 캐시 계층 구조 상세 • 열 영역 통합 • 전원 관리 상태 추적 • SR‑IOV 가상 기능 감지 |
| Production Best Practices | 커널 코딩 스타일, 적절한 오류 처리, 메모리 관리 패턴, 모듈 라이프사이클 관리—문서는 읽었지만, 읽는 것과 진정으로 이해하는 것은 별개의 일입니다. |
왜 이것이 중요한가
새로운 종류의 운영 체제
전통적인 OS 부팅 시퀀스는 1970‑1990년대에 설계되었으며, 그때 “고성능 컴퓨팅”은 메인프레임과 워크스테이션을 의미했습니다. 이들은 다음을 위해 설계되지 않았습니다:
- 다중 GPU 학습 클러스터
- 이기종 AI 가속기(GPU + TPU + NPUs)
- NUMA‑인식 텐서 메모리 할당
- ML 워크로드를 위한 동적 자원 파티셔닝
NeuroShell OS는 이를 근본부터 재구상합니다.
오픈‑소스 AI 인프라스트럭처
AI 산업은 점점 더 독점적인 스택이 지배하고 있습니다. 우리는 다음과 같은 오픈‑소스 인프라가 필요합니다:
- 벤더‑중립적(NVIDIA, AMD, Intel, 커스텀 가속기와 모두 작동)
- 커뮤니티‑주도
- 투명하고 감사 가능
- 레거시 호환성이 아니라 현대 AI 워크로드를 위해 설계
학습 기회
AI에 관심은 있지만 AI 프레임워크가 하드웨어와 어떻게 상호 작용하는지 깊이 파고들어 본 적이 없는 커널 개발자라면, 이 프로젝트는 시스템 프로그래밍과 AI 인프라스트럭처의 경계에서 탐구할 수 있는 좋은 기회입니다.
도와줄 수 있는 방법
| Task | Description |
|---|---|
| 코드 리뷰 | 기존 모듈을 버그, 보안 문제 및 커널‑스타일 위반 사항에 대해 감사 |
| 아키텍처 가이드 | 커널 모듈이 적절한 접근인지 평가하고, 필요 시 대안을 제시 |
| 잠금 및 동시성 | 코드를 SMP‑안전하게 만들고 동시 접근을 올바르게 처리 |
| 오류 처리 | 적절한 오류 경로와 자원 정리를 추가 |
| 고급 하드웨어 감지 | 더 깊은 PCIe 토폴로지, IOMMU 인식, 캐시 세부 정보 등을 구현 |
| 핫‑플러그 지원 | 동적 하드웨어 변경에 대응 |
| 성능 최적화 | 빈번한 쿼리의 오버헤드 최소화 |
| 테스트 프레임워크 | 다양한 하드웨어 구성으로 자동화 테스트 설정 |
| 부트로더 통합 | GRUB/systemd‑boot와 연동해 커널 이전에 하드웨어 정보를 노출 |
| Init‑시스템 훅 | systemd/OpenRC와 통합해 초기 하드웨어 구성 |
| 스케줄러 확장 | 하드웨어‑인식 CPU/GPU 스케줄링 힌트 제공 |
| 메모리‑토폴로지 최적화 | AI 워크로드를 위한 NUMA‑인식 할당 구현 |
정말 흥미롭다
실제적인 영향
AI 인프라는 방대하고 성장 중인 분야입니다. 부팅 시 하드웨어 탐지와 구성의 개선은 AI 워크로드를 실행하는 연구원, 엔지니어, 기업의 성능을 향상시킬 수 있습니다.
협업에 관심이 있는 경험 많은 커널 개발자라면 연락 주세요. 함께 이 개념 증명을 차세대 AI‑네이티브 운영 체제의 생산 준비가 된 기반으로 전환할 수 있습니다.
ads.
정직합니다
나는 이것이 다듬어진 프로덕션 코드라고 가장하는 것이 아니다. 나는 제한 사항에 대해 솔직하게 밝히고 진정한 전문 지식을 요청하고 있다. 자존심도, 숨은 의도도 없으며—그저 비전과 도움을 청할 뿐이다.
당신은 기여를 소유하게 됩니다
- 이것은 GPL‑v3입니다. 당신의 코드는 그대로 당신의 것입니다.
- 당신의 전문성은 적절히 인정받습니다.
- 이것은 협업이며, 착취적이지 않습니다.
상상해 보세요, 다음과 같은 세상을
- 새로운 AI 학습 노드를 시작하는 연구자가 수동으로 CUDA, ROCm, 그리고 NUMA 설정을 구성하지 않아도 되고—운영체제가 부팅 시 자동으로 설정합니다.
- 데이터 센터가 GPU를 핫‑플러그하고 운영체제가 즉시 인식하고 할당하여 수동 개입이 필요 없습니다.
- AI 프레임워크가
/proc/cpuinfo를 파싱하거나 추측하지 않고 실시간 하드웨어 토폴로지 정보를 얻습니다. - 부팅 시 하드웨어 탐지가 빠르고, 정확하며, 벤더에 종속되지 않습니다.
이것이 목표입니다. 이 커널 모듈은 첫 번째 단계입니다.
선택 사항
- 포크하고 수정하기 – 레포를 포크해서 자신만의 것으로 만들기.
- 새 레포 만들기 – 개념을 기반으로 자신만의 구현을 새로 시작하기.
- 자신의 공간에 업로드 – 자신의 버전을 만들고 원하는 곳에 호스팅하기.
- 원하는 대로 사용하기 – GPL‑v3 라이선스이므로 원하는 방향으로 활용하세요.
버전이 어디서 왔는지에 대한 메모만 추가하면 됩니다. 그게 전부입니다. 저는 독점적이지 않으며, 독립적으로 더 나은 버전을 만들 수 있다면 언제든지 그렇게 하세요. 목표는 이 개념을 잘 작동하게 만드는 것이지, 누가 만들지를 통제하는 것이 아닙니다.
기여 방법
- 레포지토리 복제
git clone https://github.com/hejhdiss/lkm-for-ai-resource-info - 코드 검토 –
neuroshell_enhanced.c파일을 살펴보고 어떤 부분을 고쳐야 하는지 확인하세요. - 이슈 열기 – 버그, 보안 문제, 혹은 아키텍처 문제를 지적하세요.
- PR 제출 – 작은 수정이라도 프로젝트 진행에 도움이 됩니다.
- 디자인 토론에 참여 – NeuroShell OS 기사를 읽고 의견을 공유하세요.
- 아키텍처 변경 제안 – 현재 접근 방식이 잘못되었다면, 올바른 방안을 함께 찾아봅시다.
- 고급 기능 구현 – 서브시스템(PCIe 토폴로지, NUMA, 핫‑플러그 등)을 담당해 보세요.
- 공동 유지보수자가 되기 – 이 프로젝트가 마음에 든다면, 프로젝트를 이끌어 가는 데 도움을 주세요.
Other possibilities:
- 포크하기 – 자신의 설계 결정을 반영한 버전을 만들어 보세요.
- 다시 작성하기 – 다르게 구현해야 한다고 생각한다면, 다르게 만들어 보세요.
- 더 나은 것을 만들기 – 이를 영감으로 삼아 자신만의 뛰어난 구현을 만들어 보세요.
제가 바라는 유일한 점: 구현이 완전히 달라도 아이디어 출처를 명시해 주세요.
Spread the Word
만약 여러분이 커널 개발자는 아니지만, 커널 개발자를 알고 있다면—특히 AI 인프라스트럭처에 관심이 있는 사람이라면—이 글을 공유해 주세요.
저는 여러분의 전문 지식을 요청하고 있습니다, 자선 활동을 요청하는 것이 아닙니다. 저는 가진 지식으로 할 수 있는 것을 만들었습니다. 이제 실제로 커널 개발을 아는 사람들이 이 문제를 진지하게 받아들이고 현실화할 수 있도록 도와주길 필요합니다.
내가 찾는 사람
- 오픈‑소스 인프라에 관심이 있는 사람.
- AI/ML 시스템에 관심이 있는 사람.
- 새롭고 영향력 있는 일을 하고 싶어 하는 사람.
- 자아보다 솔직한 협업을 중시하는 사람.
몇 시간이라도 코드를 검토하고 개선점을 제안해 주는 것만으로도 가치가 있습니다. 올바른 커널 API나 디자인 패턴을 알려 주는 것만으로도 도움이 됩니다.
나의 이야기
나는 내 분야에 머물러서—완전히 이해하는 C 프로그램에만 집중하고 커널 개발은 전혀 피할 수도 있었지만—그 사이에 틈이 있음을 보았다: AI 인프라에는 부팅 시 하드웨어 탐색이 더 필요하고, 이를 구현하는 사람은 아무도 없었다.
그래서 할 수 있는 일을 했습니다. 아이디어를 프로토타입할 정도로 충분히 배우고, 지식의 공백을 메우기 위해 AI를 활용했으며, 실제 하드웨어에서 테스트했더니 동작합니다—간신히, 하지만 동작합니다.
이제는 내가보다 더 똑똑한 사람들이 이걸 잘 작동하도록 만들어야 합니다.
Project & Vision
- Project:
- Vision: NeuroShell OS – Rethinking Boot‑Time Design for AI‑Native Computing
Author: HejHdiss (self‑taught C programmer, kernel newbie, but committed to the vision)
Let’s build AI‑native infrastructure together.
Estimated reading time: 5 minutes