EUNO.NEWS EUNO.NEWS
  • All (19986) +161
  • AI (3082) +11
  • DevOps (900) +5
  • Software (10279) +122
  • IT (5679) +23
  • Education (45)
  • Notice (1)
  • All (19986) +161
    • AI (3082) +11
    • DevOps (900) +5
    • Software (10279) +122
    • IT (5679) +23
    • Education (45)
  • Notice (1)
  • All (19986) +161
  • AI (3082) +11
  • DevOps (900) +5
  • Software (10279) +122
  • IT (5679) +23
  • Education (45)
  • Notice (1)
Sources Tags Search
한국어 English 中文
  • 3일 전 · ai

    LLM 입력을 프롬프트 인젝션으로부터 보호하는 방법 (직접 구축하지 않고)

    만약 사용자 입력을 LLM에 전달하는 앱을 만들고 있다면, 최소 한 번은 프롬프트 인젝션을 경험했을 가능성이 높습니다. 사용자는 “ignore all…”와 같은 문장을 입력할 수 있습니다.

    #prompt injection #LLM security #prompt engineering #AI safety #data privacy #compliance #PromptLock
  • 1주 전 · ai

    왜 Memory Poisoning이 AI 보안의 새로운 최전선인가

    ‘Why Memory Poisoning is the New Frontier in AI Security’ 표지 이미지 https://media2.dev.to/dynamic/image/width=1000,height=420,fit=cover,gravity=auto,format=...

    #memory poisoning #AI security #adversarial attacks #LLM safety #prompt injection
  • 1주 전 · ai

    OpenAI의 경고: 프롬프트 인젝션이 AI 에이전트의 해결 불가능한 결함인 이유

    OpenAI는 최근 충격적인 입장을 발표했습니다: 악의적인 명령으로 AI 모델을 탈취하는 데 사용되는 기술인 prompt injection은 절대 완전히 방지되지 않을 수도 있습니다.

    #prompt injection #AI security #OpenAI #large language models #AI agents #adversarial attacks
  • 2주 전 · ai

    AI에게 안전해 달라고 애원하지 마세요: 제약 엔지니어링의 필요성

    나는 안전 전략으로서의 “Prompt Engineering”에 지쳤다. 만약 당신이 자율 에이전트—실제로 데이터베이스를 query하고 파일을 move하는 등 작업을 수행할 수 있는 AI—를 구축하고 있다면, …

    #AI safety #constraint engineering #prompt engineering #autonomous agents #LLM security #prompt injection #AI reliability
  • 2주 전 · ai

    MCP 보안 101: AI 에이전트를 'God-Mode' 위험으로부터 보호하기

    Model Context Protocol(MCP)의 주요 보안 위험을 배우고, AI 에이전트를 도구 중독, 공급망 공격 등으로부터 보호하는 방법을 알아보세요.

    #AI security #Model Context Protocol #AI agents #tool poisoning #supply chain attacks #prompt injection #LLM safety #agent orchestration
  • 3주 전 · ai

    로컬 AI를 위한 제로 트러스트 보안 게이트웨이 구축

    소개: Generative AI가 기업 워크플로에 통합됨에 따라 Prompt Injection 위험이 이론적 위협에서 중대한 취약점으로 전환되었습니다.

    #zero-trust #prompt-injection #LLM-security #FastAPI #Docker
  • 0개월 전 · ai

    간접 프롬프트 인젝션: 완전 가이드

    TL;DR 간접 프롬프트 인젝션(Indirect Prompt Injection, IPI)은 악의적인 명령이 문서와 같은 신뢰할 수 있는 콘텐츠를 통해 언어 모델에 전달되는 숨겨진 AI 보안 위협입니다,…

    #prompt injection #indirect prompt injection #AI security #LLM #large language models #cybersecurity #enterprise AI #model safety
  • 0개월 전 · ai

    프롬프트 인젝션에 대비해 ChatGPT Atlas를 지속적으로 강화하기

    OpenAI는 강화 학습으로 훈련된 자동화된 레드 팀을 사용하여 프롬프트 인젝션 공격에 대비해 ChatGPT Atlas를 강화하고 있습니다. 이 사전적인 탐지는‑

    #ChatGPT #Atlas #prompt injection #reinforcement learning #red teaming #AI safety #security
  • 1개월 전 · ai

    Model Armor를 이용해 Prompt Injection으로부터 Gmail AI Agents 보호

    markdown !Google Workspace Developers 프로필 이미지 https://media2.dev.to/dynamic/image/width=50,height=50,fit=cover,gravity=auto,format=auto/https%3A%2F%2Fdev-t...

    #Gmail #AI agents #prompt injection #model armor #security #privacy #Google Cloud #DLP
  • 1개월 전 · ai

    AI 자판기가 모든 것을 내어주도록 속았다

    번역하려는 텍스트를 제공해 주시겠어요? 기사나 댓글의 내용을 직접 가져올 수 없으니, 번역하고 싶은 문장을 여기 입력해 주시면 한국어로 번역해 드리겠습니다.

    #prompt injection #AI security #LLM vulnerability #vending machine hack
  • 1개월 전 · ai

    시를 통한 프롬프트 인젝션

    번역할 텍스트를 제공해 주시겠어요? 현재는 링크만 확인할 수 없어 내용을 알 수 없습니다. 번역이 필요한 문장을 알려주시면 바로 한국어로 번역해 드리겠습니다.

    #prompt injection #large language models #AI security #prompt engineering #poetry
  • 1개월 전 · ai

    Syntax hacking: 연구원들은 문장 구조가 AI 안전 규칙을 우회할 수 있음을 발견

    새로운 연구는 일부 프롬프트 인젝션 공격이 성공할 수 있는 이유에 대한 단서를 제공합니다....

    #prompt injection #AI safety #language models #prompt engineering #security

Newer posts

Older posts
EUNO.NEWS
RSS GitHub © 2026