AI로 돈을 벌었나요?
아니요! 😂 안녕, 저는 중국 출신 소프트웨어 엔지니어 Gudong입니다. 오늘 흥미로운 주제를 생각했어요: AI로 돈을 벌었나요? 아니요, 정반대예요—실제로는…
아니요! 😂 안녕, 저는 중국 출신 소프트웨어 엔지니어 Gudong입니다. 오늘 흥미로운 주제를 생각했어요: AI로 돈을 벌었나요? 아니요, 정반대예요—실제로는…
번역하려는 텍스트를 제공해 주시겠어요? 해당 기사나 댓글의 내용이 필요합니다.
현재 문제 - 배경: 대형 언어 모델(LLM)의 파인튜닝은 많은 자원을 소모한다. LoRA(Low‑Rank Adaptation) 방법이 등장하여 ...
기존 environment simulators와 검증 가능한 ground truth를 기반으로 한 reward functions를 활용하면, 작은 모델과 작은 training에서도 작업 성공률을 높일 수 있다...
번역할 텍스트를 제공해 주시겠어요?
NVIDIA와 Lilly가 “Blueprint for the Future of Drug Discovery”를 공개했습니다. NVIDIA 설립자 겸 CEO인 Jensen Huang와 Lilly 회장 겸 CEO인 Dave Ricks가 파트너십에 대해 논의했습니다.
대규모 언어 모델(Large Language Model LLM) 최적화라는 혼돈의 세계에서, 엔지니어들은 지난 몇 년간 점점 더 난해한 의식을 개발하며 더 나은 …
번역하려는 텍스트(발췌문 또는 요약)를 제공해 주시겠어요? 해당 내용을 받아야 한국어로 번역해 드릴 수 있습니다.
보이지 않는 워터마킹은 AI 생성 이미지 콘텐츠를 인증하는 핵심 메커니즘이 되었으며, 주요 플랫폼들은 대규모로 워터마킹 스킴을 배포하고 있습니다.
SAM2와 같은 비디오 객체 분할 방법은 메모리 기반 아키텍처를 통해 강력한 성능을 달성하지만, 큰 시점 변화에서는 신뢰성 때문에 어려움을 겪는다.
본 연구에서는 실제 학회 논문 제출을 이용하여 Elo 순위 리뷰 시스템에서 대형 언어 모델(LLM) 에이전트 리뷰어의 역학을 탐구한다. Mu...
비디오 생성 모델이 급속히 발전하고 있음에도 불구하고, 데이터가 움직임에 미치는 역할은 아직 충분히 이해되지 않고 있다. 우리는 Motive (MOTIon attribution for Vi… )를 제시한다.
OpenAI와 Anthropic은 지난 일주일 동안 각각 의료 중심 제품을 출시했습니다....
추천 시스템의 진화는 선호 저장 방식을 rating matrices와 dense embeddings에서 agentic era의 semantic memory로 전환시켰다. 그러나 기존…
강력한 추론 능력을 갖춘 대형 언어 모델(Large Language Models, LLMs)의 최근 발전은 수학, 코딩, 그리고 과학 등 다양한 분야에서 연구를 촉진하고 있습니다.
대형 언어 모델은 종종 Chain-of-Thought (CoT)를 사용하여 복잡한 추론 작업을 더 효과적으로 해결하지만, 그 대가로 길고 저대역폭 토큰 시퀀스를 필요로 합니다.
Tracklet 품질은 대부분의 사람 재식별(ReID) 방법에서 사후 고려 사항으로 취급되는 경우가 많으며, 연구의 대부분은 아키텍처 변형을 제시하는 데 초점을 맞추고 있다.
우리는 AI Productivity Index for Software Engineering (APEX‑SWE)를 소개합니다. 이는 프론티어 AI 모델이 경제적으로 가치 있는 작업을 수행할 수 있는지를 평가하기 위한 벤치마크입니다.
번역할 텍스트를 제공해 주시겠어요?
죄송합니다. 번역하려는 텍스트를 직접 제공해 주시면 도와드리겠습니다.
정확한 개체 식별은 희귀 양서류를 모니터링하는 데 필수적이지만, 침습적인 마킹은 종종 위급히 멸종 위기에 처한 종에게는 부적합합니다. 우리는…
방사선 사진(radiographs)에서 치과 질환을 진단하는 것은 진단 증거가 미묘하기 때문에 시간도 많이 걸리고 어려운 작업입니다. 기존 방법들은 …
이미지 합성 모델의 급속한 등장으로 AI 생성 이미지 탐지기의 일반화에 도전 과제가 제기됩니다. 그러나 기존 방법들은 종종 mo...
대형 언어 모델(LLM)이 디지털 플랫폼과 의사결정 시스템에 깊이 통합됨에 따라, 그들의 정치적 편향에 대한 우려가 커지고 있습니다. 반면…
Machine Learning 알고리즘은 정의, 의료 및 금융과 같은 핵심 의사결정 분야에 널리 퍼져 있어, fairness에 대한 큰 수요를 촉발했습니다.
CLASSIX 알고리즘은 데이터 클러스터링에 대한 빠르고 설명 가능한 접근 방식입니다. 원래 형태에서는 이 알고리즘이 데이터 포인트를 정렬하는 방식을 활용합니다.
연구자들은 데이터 분석을 간소화하고 데이터베이스 기반 애플리케이션 개발을 가속화하기 위해 수많은 text-to-SQL 기술을 제안했습니다. 비교를 위해...
다양하고 잠재적으로 상충되는 선호를 가진 사용자들에게 서비스를 제공하도록 대형 언어 모델(LLMs)을 정렬하는 것은 개인화 및 신뢰성 측면에서 핵심 과제이다.
조직병리학 분석은 헤마톡실린 및 에오신(H&E) 염색에 의존하지만, 형광 현미경은 보완적인 정보를 제공합니다. 형광을 변환하는…
The NanoBanana Image Generation Prompt Templates That Actually Work의 커버 이미지 https://media2.dev.to/dynamic/image/width=1000,height=420,fit=cover
소프트웨어 엔지니어링을 위한 Retrieval-Augmented Generation은 종종 vector similarity search에 의존하는데, 이는 주제 유사성을 포착하지만 다중 홉 …
Amazon의 LLM 액세스 레이어에 대한 어떻게, 왜, 무엇, 어디 ‘An introduction to AWS Bedrock’ 게시물은 처음에 Towards Data Science에 게재되었습니다....
강화 학습(RL)은 특히 복잡한 추론 작업에 대해 사후 훈련된 대형 언어 모델(LLMs)의 핵심 패러다임이 되었지만, 종종…
우리는 edge networks로 구성된 환경에서 time-sensitive clients의 information freshness를 최적화하는 것을 목표로 하는 decentralized collaborative requesting problem을 연구한다.
Chain-of-Thought (CoT) 추론은 단계별 중간 추론을 장려함으로써 대규모 언어 모델을 향상시키는 데 효과적인 것으로 입증되었으며, 최근의 발전…
최근 natural language processing의 발전은 텍스트를 생태학을 위한 새로운 데이터 소스로 부각시킨다. 텍스트 자원은 고유한 정보를 담고 있어…
현재 컨텍스트 증강 방법, 예를 들어 retrieval-augmented generation과 같은 방법은 지식 집약적 추론 작업을 해결하는 데 필수적입니다.하지만, 그들은 일반적으로...
Text-to-SQL 작업에서 기존 LLM 기반 방법은 종종 프롬프트에 방대한 데이터베이스 스키마를 포함하여, 긴 컨텍스트 길이와 증가된 prefilling 비용을 초래합니다.
Attributional inference, 관찰된 행동 뒤에 있는 latent intentions를 예측하는 능력은 large language models에게 중요한 동시에 아직 충분히 탐구되지 않은 역량이다 ...
대규모 언어 모델(LLMs)은 수천 개의 숫자 행과 여러 연결된 시트가 포함된 대규모 기업 스프레드시트를 추론하는 데 어려움을 겪으며, 임베드…
지난달 웹 리디자인으로 Gemini 앱에 “My Stuff” 폴더가 추가되었고, Google은 이제 Deep Research를 위한 전용 “Documents” 목록으로 이를 업데이트하고 있습니다.
Infrastructure-as-Code (IaC)를 자동화하는 것은 어려우며, 대형 언어 모델(LLMs)은 종종 자연어(NL)로부터 잘못된 구성을 생성합니다. 우리는 …
인공지능(AI) 시스템은 분류 작업에서 좋은 성공을 보여왔습니다. 그러나 explainability의 부족은 특히 진정하고 중요한 도전 과제입니다.
Google은 생성된 비디오가 이제 기반이 되는 참조 이미지와 더 일관되도록 해야 한다고 말했습니다. | 이미지: Google / The Verge Google은…
강화 학습(Reinforcement Learning, RL)은 머신러닝에서 중심적인 최적화 프레임워크로 남아 있습니다. RL 에이전트가 최적 솔루션에 수렴할 수 있지만, 정의는...
양자 어닐링(QA)은 조합 최적화를 위해 개발되었지만, 실제 QA 장치는 유한 온도와 잡음 하에서 동작하며, 그들의 …
Dataflows는 Power BI/Microsoft Fabric에 데이터를 가져오는 데 있어 ‘가장 느리고 성능이 가장 낮은 옵션’이라고 올바르게 평가받아 왔습니다. 하지만 상황은 급속히 변하고 있습니다.
Neural Combinatorial Optimization (NCO)는 주로 단일 후보 솔루션에 대해 한 번에 작동하는 정책, 일반적으로 neural networks, 을 학습하는 데 초점을 맞추어 왔습니다.