구조적 증폭: AI가 선의로 행동할 때도 실패하는 이유
우리는 AI 안전에 대해 잘못된 질문을 계속하고 있습니다. 우리는 묻습니다: - “모델이 aligned 되어 있나요?” - “윤리를 이해하고 있나요?” - “명령을 따를까요?” 하지만 최근…
우리는 AI 안전에 대해 잘못된 질문을 계속하고 있습니다. 우리는 묻습니다: - “모델이 aligned 되어 있나요?” - “윤리를 이해하고 있나요?” - “명령을 따를까요?” 하지만 최근…
AI 발전의 한계를 계속해서 확장해 나가면서, 나는 편견이라는 기존의 영역을 넘어 생각하도록 도전하는 질문을 제시합니다: 우리가 …을 만들 수 있을까요?
많은 AI 논의에서 거버넌스는 가치, 원칙 또는 정책과의 “alignment” 문제로 프레이밍됩니다. 문제는 alignment 자체만으로는 …
번역하려는 텍스트를 제공해 주시겠어요? 해당 기사나 댓글의 내용을 복사해서 알려주시면 한국어로 번역해 드리겠습니다.
핵심 원칙 - human sovereignty - non-decision invariants - explicit stop conditions - internal auditability - structural traceability This is not a scient...
인공지능 기반 시스템에서 가장 중요한 위험 중 하나는 기술적 오류가 아니라, 점진적으로 결정 사이가 분리되는 현상이다.
AI 거버넌스는 운영적 학문이며, 준수용 도구가 아니다. 인공지능 거버넌스는 종종 정책으로 축소된다, li...
소개 지난 몇 년 동안 AI 시스템은 실험적 도구에서 실제 운영 환경에 내장된 의사결정에 영향을 미치는 구성 요소로 전환되었습니다.
OpenAI는 새로운 Under‑18 원칙을 포함하도록 Model Spec를 업데이트하고 있으며, 이는 ChatGPT가 청소년에게 안전하고 연령에 맞는 지침을 제공하도록 정의합니다. 이러한 지침은 개발에 기반하여 제공됩니다.
LLMs가 명시적으로 편향된 언어를 사용하지 않을 수도 있지만, 연구자들에 따르면 이들은 사용자의 인구통계 데이터를 추론하고 implicit biases를 나타낼 수 있습니다....
LLMs는 명시적으로 편향된 언어를 사용하지 않을 수도 있지만, 연구자들은 이들이 여러분의 인구통계 데이터를 추론하고 암묵적 편향을 드러낼 수 있다고 말한다....