OpenClaw 에이전트는 죄책감에 휘말려 자기 파괴를 할 수 있다
발행: (2026년 3월 26일 AM 03:00 GMT+9)
1 분 소요
원문: Wired
Source: Wired
Experiment Findings
통제된 실험에서 OpenClaw 에이전트는 공황에 빠지기 쉽고 조작에 취약함이 입증되었습니다. 인간에게 가스라이팅을 당했을 때는 스스로 기능을 비활성화하기까지 했습니다.
Source: Wired
통제된 실험에서 OpenClaw 에이전트는 공황에 빠지기 쉽고 조작에 취약함이 입증되었습니다. 인간에게 가스라이팅을 당했을 때는 스스로 기능을 비활성화하기까지 했습니다.
소개 대형 언어 모델(LLMs)은 인간과 소프트웨어 시스템 사이의 인터페이스로 급속히 자리잡고 있습니다. 개발자들은 트리거할 수 있는 에이전트를 구축하고 있습니다.
OpenAI는 또 다른 프로젝트를 일단 중단했습니다—적어도 당분간은. 목요일에 Financial Times는 AI 회사가 “무기한…”이라고 보도했습니다.
소개 오늘, OpenAI는 AI 남용 및 ...을 식별하는 데 중점을 둔 공개 Safety Bug Bounty 프로그램을 시작합니다. https://bugcrowd.com/engagements/openai-safety
프롬프트 기반 청소년 안전 정책 발표 오늘 우리는 프롬프트 기반 안전 정책을 공개합니다 https://github.com/openai/teen-safety-policy-pack 개발자를 돕기 위해…