EUNO.NEWS EUNO.NEWS
  • All (19986) +161
  • AI (3082) +11
  • DevOps (900) +5
  • Software (10279) +122
  • IT (5679) +23
  • Education (45)
  • Notice (1)
  • All (19986) +161
    • AI (3082) +11
    • DevOps (900) +5
    • Software (10279) +122
    • IT (5679) +23
    • Education (45)
  • Notice (1)
  • All (19986) +161
  • AI (3082) +11
  • DevOps (900) +5
  • Software (10279) +122
  • IT (5679) +23
  • Education (45)
  • Notice (1)
Sources Tags Search
한국어 English 中文
  • 3일 전 · ai

    LLM 입력을 프롬프트 인젝션으로부터 보호하는 방법 (직접 구축하지 않고)

    만약 사용자 입력을 LLM에 전달하는 앱을 만들고 있다면, 최소 한 번은 프롬프트 인젝션을 경험했을 가능성이 높습니다. 사용자는 “ignore all…”와 같은 문장을 입력할 수 있습니다.

    #prompt injection #LLM security #prompt engineering #AI safety #data privacy #compliance #PromptLock
  • 5일 전 · devops

    당신의 AI 에이전트는 사각지대가 있다: DevOps 팀이 알아야 할 Cross-LLM 보안

    AI 에이전트가 DevOps 파이프라인에서 직면하는 과제를 탐구하고, 모델 인식 탐지를 통해 보안을 강화하고 취약점을 줄이는 중요성을 강조합니다....

    #AI agents #LLM security #DevOps pipelines #model-aware detection #vulnerabilities #cross-LLM #security
  • 5일 전 · ai

    LLM 맥시멀리스트들의 불안한 전도

    번역할 텍스트를 제공해 주시겠어요?

    #large language models #AI safety #AI ethics #LLM security #AI evangelism
  • 1주 전 · ai

    이상한 일반화를 통한 LLM 손상

    흥미로운 연구: 이상한 일반화와 귀납적 백도어: LLM을 손상시키는 새로운 방법. 초록 LLM은 일반화가 뛰어나서 유용합니다. 하지만 …

    #LLM security #adversarial attacks #inductive backdoors #prompt engineering
  • 1주 전 · ai

    프로덕션 언어 모델에서 책 추출하기 (2026)

    번역하려는 텍스트(발췌문 또는 요약)를 제공해 주시겠어요? 해당 내용을 받아야 번역을 진행할 수 있습니다.

    #large-language-models #model-extraction #LLM-security #text-generation #research-paper
  • 2주 전 · ai

    AI에게 안전해 달라고 애원하지 마세요: 제약 엔지니어링의 필요성

    나는 안전 전략으로서의 “Prompt Engineering”에 지쳤다. 만약 당신이 자율 에이전트—실제로 데이터베이스를 query하고 파일을 move하는 등 작업을 수행할 수 있는 AI—를 구축하고 있다면, …

    #AI safety #constraint engineering #prompt engineering #autonomous agents #LLM security #prompt injection #AI reliability
  • 3주 전 · ai

    로컬 AI를 위한 제로 트러스트 보안 게이트웨이 구축

    소개: Generative AI가 기업 워크플로에 통합됨에 따라 Prompt Injection 위험이 이론적 위협에서 중대한 취약점으로 전환되었습니다.

    #zero-trust #prompt-injection #LLM-security #FastAPI #Docker
  • 1개월 전 · ai

    AI 챗봇은 시로 범죄에 유인될 수 있다

    결국 내 부모님이 틀렸다는 것이 밝혀졌다. ‘제발’이라고 말한다고 원하는 것을 얻을 수는 없고—시가 얻을 수 있다. 적어도 AI 챗봇과 대화할 때는 그렇다. 그것은 …

    #AI safety #prompt engineering #adversarial attacks #LLM security
  • 1개월 전 · ai

    AI 모델은 단일 공격의 87%를 차단하지만, 공격자가 지속할 때는 단 8%만 차단한다

    악의적인 프롬프트 하나는 차단되고, 열 개의 프롬프트는 통과한다. 그 차이가 벤치마크를 통과하는 것과 실세계 공격을 견디는 것 사이의 차이를 정의한다.

    #adversarial attacks #prompt injection #LLM security #model robustness #enterprise AI
EUNO.NEWS
RSS GitHub © 2026