[Paper] 탐색 해킹: LLM이 RL 훈련에 저항하도록 학습할 수 있을까?
강화 학습(RL)은 추론, 에이전시 능력 및 alignment을 위해 대형 언어 모델(LLM)의 사후 훈련에 필수적이 되었습니다. Success...
강화 학습(RL)은 추론, 에이전시 능력 및 alignment을 위해 대형 언어 모델(LLM)의 사후 훈련에 필수적이 되었습니다. Success...
현실적인 장기 생산성 작업은 사용자별 computer environments에 크게 좌우되며, 그곳에 작업 컨텍스트의 대부분이 저장되고 조직됩니다...
기관지경 탐색은 내시경 비디오를 수술 전 CT 스캔에 등록하는 데 의존하지만, 호흡 운동으로 인해 기도가 5‑20 mm 변형되어 CT와 … 사이에 불일치를 초래합니다.
Electroencephalogram (EEG) 신호는 자동 발작 감지에 필수적이지만, 그 고유의 노이즈 때문에 강인한 representation learning을 수행하기가 어렵습니다. Existin...
우리는 AEGIS를 소개합니다. 이는 AI‑Generated 학술 ImageS의 포렌식 분석을 평가하기 위한 전체적인 benchmark입니다. 기존 benchmark와 비교했을 때, AEGIS는 세 가지…
Machine learning models는 data samples로부터 학습하여 다양한 작업을 효율적으로 수행할 수 있습니다. data samples가 adversarially manipulated될 경우, 예를 들어 삽입…
머신 러닝(ML) 추론 서빙 시스템은 딥 뉴럴 네트워크(DNN) 모델을 호스팅하고, 배포된 GPU에 걸쳐 들어오는 추론 요청을 스케줄링합니다. 그러나, li...
효과적인 인간 행동 모델링은 인간 신체 움직임의 구성성을 활용하는 representation을 필요로 합니다. 우리는 계층적인 repre...
현대 비디오 디퓨전 모델은 외관 합성에 뛰어나지만 물리적 일관성에서는 여전히 어려움을 겪는다: 객체가 떠다니고, 충돌이 현실적인 반동을 결여한다, 그리고 ...
본 연구에서는 머신러닝을 사용하여 Vicsek 플로킹 모델의 위상 구조를 3차원 파라미터 공간 전반에 걸쳐 분류하고 보간합니다.
능력 있고 효율적인 머신러닝(ML) 모델의 확산은 신호 처리(SP) 분야에서 거의 가장 강력한 방법론적 전환 중 하나를 나타냅니다.
기존 research infrastructure는 근본적으로 document-centric이며, 논문 간에 citation links를 제공하지만 methodologic에 대한 명시적인 표현이 부족합니다.
우리는 로봇 엔드 이펙터용으로 설계된 저비용, 오픈 소스, 확장 가능한 압전 저항성 촉각 센싱 솔루션인 FlexiTac을 소개합니다. FlexiTac은 실용적인 ‘…
Surprisal theory는 인간의 처리 노력과 다가오는 언어 단위의 예측 가능성을 연결하지만, 실증 연구는 종종 단위 개념을 충분히 정의하지 않는다.
LLM agents는 소프트웨어 도구, business services 및 local workspaces 전반에 걸쳐 end-to-end 작업 단위를 완료할 것으로 기대됩니다. 그러나 많은 agent benchmarks는 …
자율 에이전트는 샌드박스된 컨테이너와 마이크로VM을 통해 작동하며, 그 상태는 파일시스템, 프로세스 및 런타임 아티팩트를 포함합니다. 체크포인트 및 복원(C/R)…
멀티턴 프롬프트 인젝션은 알려진 공격 경로인 trust-building, pivoting, escalation을 따르지만 텍스트 수준 방어는 개별 turn…에서 발생하는 은밀한 공격을 놓칩니다.
Sign languages는 지리적이든 억양이든 어떤 변형이 있든, 이해할 수 있듯이 끊임없는 구두 기록(verbal dictation)과 ...
대규모 멀티모달 모델(LMMs)을 위한 표준 사후 학습 레시피는 선별된 데모에 대해 supervised fine-tuning(SFT)을 적용한 뒤 reinforcement learning을 수행합니다.
AI는 기술 그 이상 — 마법이다. 믿지 않으세요? 그렇다면 왜 이 분야의 선두 기업 중 하나인 OpenAI가 전체 공식, 기업…
Transformer 모델은 중요한 AI 애플리케이션에 널리 배포되고 있지만, attention 메커니즘, projections 및 기타 내부 구성 요소의 결함이 종종 d...
교실 상호작용에 대한 연구는 오랫동안 large‑scale observation과 in‑depth ethnographic work 사이로 나뉘어 왔습니다. 우리는 이 meth…에 매핑하는 framework를 제안합니다.
!https://9to5mac.com/wp-content/uploads/sites/6/2026/04/goblin-gpt.webp?w=1600 OpenAI의 GPT‑5.5 업그레이드: ChatGPT와 Codex https://9to5mac.com/2026/04/23/opena...
대규모 언어 모델(LLMs)은 Table Question Answering을 발전시켰으며, 대부분의 질의는 정보를 추출하거나 간단한 집계로 답할 수 있습니다. 그러나...
최근 연구에 따르면 방대한 영어 웹 코퍼스를 고품질 하위 집합으로 필터링하면 학습 효율성이 크게 향상된다고 합니다. 그러나 high‑res…
수많은 메타과학 연구와 기타 이니셔티브가 오픈 사이언스 관행의 보편성을 모니터링하기 시작했으며, 이는 ‘d…’를 이해하는 것이 더 중요할 때입니다.
Large Language Models (LLMs)은 도시 분석에서 인간 인식을 대체하는 프록시로 점점 더 많이 사용되고 있지만, persona prompting이 …
문장의 syntactic structure는 단어들 사이의 syntactic dependencies를 나타내는 edges가 있는 tree로 표현될 수 있다. 그 구조가 star일 때, 그것은 …
문제: Summarization APIs가 Reasoning Traces를 누출함 나는 내 프로덕션 요약 API가 내부 chain‑of‑thought를 사용자에게 노출하는 것을 발견했다. 내가 ...
Multimodal large language models (MLLMs)은 UI mockups를 HTML로, scientific plots를 Python으로 변환하는 등 시각적 아티팩트를 코드로 번역하는 데 점점 더 많이 사용되고 있습니다.
배경: 익명의 독자가 Ars Technica의 보고서를 인용했습니다. OpenAI의 Codex CLI에 대한 시스템 프롬프트에는 m에 대한 당황스럽고 반복적인 경고가 포함되어 있습니다.
실리콘밸리가 대형 언어 모델 기반 챗봇인 ChatGPT와 같은 것을 필연적인 미래라고 적극적으로 내세운 지 거의 3년이 되었습니다…
Foundation 모델은 대규모 데이터셋으로 학습된 딥 뉴럴 네트워크(예: GPT-5, Gemini~3, Opus~4)이며, 텍스트와 …와 같은 다양한 다운스트림 작업을 수행할 수 있습니다.
픽셀이 유용한 에이전트를 훈련시키는 열쇠가 될 수 있을까? 언어 모델을 확장하려는 경쟁—그리고 그 주변의 에이전트 생태계—는 매우 뜨겁다. 코딩 에이전트, …
OpenAI의 Goblin Issue OpenAI는 자신의 goblin 문제에 대해 공개하고 있습니다. Wired의 보고서가 OpenAI의 코딩 모델에 “절대 말하지 말라”는 지시를 드러낸 뒤…
AI inference는 지속적이고 지리적으로 분산된 전력 수요의 원천이 되고 있다. 많은 전통적인 전기 부하와 달리, inference 워크로드는…
OpenAI는 그 용어가 응답에 무작위로 나타나기 시작하면서 AI 도구 중 일부가 고블린을 언급하지 않도록 지시했습니다. 목요일에 블로그 게시물에서, 회사는…
헬스케어를 위한 신뢰할 수 있는 AI 도구 개발 2023년 7월 자세히 보기 /blog/codoc-developing-reliable-ai-tools-for-healthcare/ !헬스케어 AI 일러스트 https://lh3...
Unsupervised Machine Learning 비지도 머신 러닝은 라벨이 지정된 결과 없이 데이터에 대해 모델을 학습시키는 머신 러닝의 한 분야입니다. Unlike...
실리콘밸리가 대형 언어 모델 기반 챗봇인 ChatGPT를 필연적인 미래라고 적극적으로 내세운 지 거의 3년이 되었습니다.
이전에 학습된 표현을 보존하기 위해, 지속 학습 시스템은 plasticity, 새로운 지식을 습득하는 능력, 그리고 s... 사이의 균형을 맞춰야 한다.
침습적 neural spike 데이터를 모델링하는 것은 고성능 brain-computer interfaces (BCIs)를 발전시키는 데 기본적입니다. 그러나 기존 접근 방식은 중요한 …
MIT에 왔을 때 나를 정말 강하게 감동시킨 것이, 그리고 매일매일 나를 감동시키는 것이 바로 여기서 일어나고 있는 일들이 놀랍다는 점이다. Science, Engineering…
배경: 오늘날 병원과 클리닉에서 피부과 전문의는 인공지능 모델을 사용하여 피부 병변을 분류하고 병변이 위험에 처했는지 평가할 수 있습니다.
GPT‑5.1부터, 우리 모델들은 이상한 습관을 개발하기 시작했습니다: 은유 속에서 점점 더 고블린, 그렘린 및 기타 생물들을 언급했습니다. Unlik…
본 논문은 CEC 벤치마크 최적화를 위해 Covariance Matrix Adaptation Evolution Strategy (CMA-ES)의 새로운 변형인 RCMAES를 제안한다. RCMAES는 ...
유한한 용량을 가진 지속 학습 에이전트는 새로운 지식을 습득하는 것과 기존 지식을 유지하는 것 사이의 균형을 맞춰야 합니다. 이는 지식에 대한 제어된 망각을 필요로 합니다…
Diffusion large language models (dLLMs)은 병렬 디코딩(parallel decoding)과 양방향 컨텍스트(bidirectional context)를 제공하지만, 최첨단(state-of-the-art) dLLMs는 경쟁력을 위해 수십억 개의 파라미터(parameters)가 필요합니다.