[Paper] Large Language Models의 소프트웨어 보안 이해 평가
대형 언어 모델(LLMs)은 소프트웨어 개발에 점점 더 많이 활용되고 있지만, 이들의 소프트웨어 보안 전문성 수준은 아직 명확하지 않다. 이 연구는 체계적으로…
대형 언어 모델(LLMs)은 소프트웨어 개발에 점점 더 많이 활용되고 있지만, 이들의 소프트웨어 보안 전문성 수준은 아직 명확하지 않다. 이 연구는 체계적으로…
대규모 언어 모델(LLMs)은 AI 지원 코딩 도구를 통해 소프트웨어 개발에 혁신을 일으켰으며, 제한된 프로그래밍 전문 지식을 가진 개발자들이 t...
인간 영아는 단 몇 백 시간의 언어 노출만으로 새로운 언어의 기본 단위를 습득하며, 이는 data와 비교했을 때 눈에 띄는 효율성 격차를 강조한다.
우리는 분산 알고리즘을 선언적 공리 이론(declarative axiomatic theories)으로 모달 논리(modal logic)에서 형식적으로 지정하는 방법을 보여준다. 우리는 간단한 투표 프로토콜(voting protocol)에 이 방법을 적용한다.
대규모 언어 모델(LLM)은 개방형 도메인, 다중 턴 설정에서 대화형 어시스턴트로 점점 더 많이 배치되고 있으며, 사용자는 종종 불완전하거나...
현재 대형 언어 모델(Large Language Models, LLMs) 안전 접근 방식은 명시적으로 유해한 콘텐츠에 초점을 맞추면서 중요한 취약점인 이해력 부족을 간과한다.
헬스케어 AI는 대규모이고 다양한 데이터셋이 필요하지만, 엄격한 프라이버시와 거버넌스 제약으로 인해 기관 간에 원시 데이터를 공유할 수 없습니다. Federated learning (FL)…
Large Language Models (LLMs)은 자동 코드 생성에 널리 사용되고 있지만, 그 겉보이는 성공은 종종 사전 학습 목표와 … 사이의 긴장을 가린다.
대규모 복잡 네트워크에서 pairwise 관계를 넘어서는 higher‑order 상호작용은 종종 hypergraphs로 모델링됩니다. hypergraph 특성, 예를 들어 tria…을 분석하는 것은.
Distributed attention은 Large Language Models(LLMs)의 컨텍스트 윈도우를 확장하는 데 있어 근본적인 문제입니다. 최신 방법인 Ring-Attention은 …
foundation models가 규모가 커짐에 따라 fine-tuning 비용이 점점 더 많이 듭니다. GPU spot instances는 on-demand resources에 대한 저비용 대안을 제공합니다.
대규모 오픈소스 소프트웨어(OSS) 저장소에서 수정이 필요한 파일과 함수를 찾는 것은 규모와 구조적 복잡성 때문에 어렵습니다.