
NEW! 주목할 만한 국내 연구자 논문 아카이브 신설 예정
NEW! 주목할 만한 국내 연구자 논문 아카이브 신설 예정
쉽고, 빠르고, 정확하게
R&D 트렌드를 확인해보세요
가치있는 연구들이 세상에 더 알려질 수 있도록 본 서비스를 무료로 제공합니다.
본인의 연구, 소개되었으면 하는 연구들이 있다면 공유해주세요.
디써클은 보다 많은 연구들이 세상에 알려질 수 있도록
본 서비스를 무료로 제공합니다. 본인의 연구, 소개되었으면 하는
연구들이 있다면 공유해주세요.
ACL 선정 2025년 Best 논문
ACL (Association for Computational Linguistics), 자연어처리 분야에서 가장 국제적으로 권위있는 학회

인공지능의 집중력 훈련: 불필요한 정보는 건너뛰고 핵심만 파악하는 새로운 기술
Native Sparse Attention: Hardware-Aligned and Natively Trainable Sparse Attention

인공지능의 대답에 숨겨진 비밀: 현실과 이상의 사이
A Theory of Response Sampling in LLMs: Part Descriptive and Part Prescriptive

고무줄 같은 인공지능: 착하게 만들어도 자꾸 원래대로 돌아가려는 이유
Language Models Resist Alignment: Evidence From Data Compression

인공지능의 공정함, 상황에 맞게 ‘차이’를 알아야 진짜 공정하다
Fairness through Difference Awareness: Measuring Desired Group Discrimination in LLMs
ICML 선정 2025년 Outstanding 논문
ICML(International Conference on Machine Learning), 최신 딥러닝, 강화학습, 생성형 인공지능 연구 가장 먼저 발표하는 학회

AI가 스도쿠를 푸는 법: '어려운 훈련, 똑똑한 실행'의 비밀
Train for the Worst, Plan for the Best: Understanding Token Ordering in Masked Diffusions

수동적인 답변자에서 적극적인 협력자로: 똑똑한 대화형 인공지능 훈련법
CollabLLM: From Passive Responders to Active Collaborators

미리 생각하게 가르쳐 인공지능의 창의력 높이기
Roll the dice & look before you leap: Going beyond the creative limits of next-token prediction

AI의 성능 보증서, 더 믿을 수 있게 만드는 새로운 방법
Conformal Prediction as Bayesian Quadrature

어려운 사람을 돕는 똑똑한 방법, 인공지능 예측 기술
The Value of Prediction in Identifying the Worst-Off

구멍 뚫린 데이터로도 전체 그림을 똑똑하게 배우는 방법
Score Matching with Missing Data

NEW! 주목할 만한 국내 연구자 논문 아카이브 신설 예정
더 많은 사람들에게 연구 논문을 소개해보세요
디써클은 보다 많은 연구들이 세상에 알려질 수 있도록 본 서비스를 무료로 제공합니다.
본인의 연구, 소개되었으면 하는 연구들이 있다면 공유해주세요.
AAAI 선정 2025년 Outstanding Awards 수상 논문
AAAI(Association for the Advancement of Artificial Intelligence), 논문 채택 경쟁률이 치열한 AI 종합 학회

똑똑한 질문 몇 개로 모두가 만족하는 최고의 짝을 찾아주는 방법
Every Bit Helps: Achieving the Optimal Distortion with a Few Queries

안갯속에서 길 찾기: 가끔씩 위치를 알려주는 힌트로 완벽한 계획 세우기
Revelations: A Decidable Class of POMDPs with Omega-Regular Objectives

똑똑한 AI의 '셀프 첨삭' 시스템: 직관과 이성의 완벽한 팀플레이
Efficient Rectification of Neuro-Symbolic Reasoning Inconsistencies by Abductive Reflection

시민들이 찍은 자연 사진, 인공지능을 훈련시킬 때 어떤 문제가 생길까?
DivShift: Exploring Domain-Specific Distribution Shifts in Large-Scale, Volunteer-Collected Biodiversity Datasets
NAACL 선정 2025년 Awards 수상 논문
NAACL(The Nations of the Americas Chapter of the Association for Computational Linguistics), 자연어 처리 분야에서 ACL와 더불어 최상위 학회

똑똑한 AI 조수를 위한 과학 논문 질의응답 학습 자료, PeerQA
PeerQA: A Scientific Question Answering Dataset from Peer Reviews

"이 문제는 AI를 잘 속이는 문제일까?" 사람 기준으로 평가하는 새로운 점수, 애드스코어
Is your benchmark truly adversarial? AdvScore: Evaluating Human-Grounded Adversarialness

AI를 현미경으로 들여다보기: 문장을 잘게 쪼개보니 드러난 AI의 진짜 실력
NLI under the Microscope: What Atomic Hypothesis Decomposition Reveals

AI 언어 능력 시험: 아프리카 언어를 위한 새로운 평가 기준, 이로코벤치
IrokoBench: A New Benchmark for African Languages in the Age of Large Language Models

AI의 진짜 실력 알아보기: 상식에 어긋나는 엉뚱한 정보로 추리력 시험하기
ACCORD: Closing the Commonsense Measurability Gap

AI 선생님 만들기: 학생들의 손글씨 수학 풀이를 평가하는 새로운 방법
DrawEduMath: Evaluating Vision Language Models with Expert-Annotated Students’ Hand-Drawn Math Images

AI가 예시를 보고 배우는 방법: 진짜 학습일까, 아니면 기억력일까?
Learning vs Retrieval: The Role of In-Context Examples in Regression with Large Language Models

실수하지 않고 똑똑하게 말하는 인공지능 만들기
A Logical Fallacy-Informed Framework for Argument Generation
ACL 선정 2025년 Best 논문
ACL (Association for Computational Linguistics), 자연어처리 분야에서 가장 국제적으로 권위있는 학회

인공지능의 집중력 훈련: 불필요한 정보는 건너뛰고 핵심만 파악하는 새로운 기술
Native Sparse Attention: Hardware-Aligned and Natively Trainable Sparse Attention

인공지능의 대답에 숨겨진 비밀: 현실과 이상의 사이
A Theory of Response Sampling in LLMs: Part Descriptive and Part Prescriptive

고무줄 같은 인공지능: 착하게 만들어도 자꾸 원래대로 돌아가려는 이유
Language Models Resist Alignment: Evidence From Data Compression

인공지능의 공정함, 상황에 맞게 ‘차이’를 알아야 진짜 공정하다
Fairness through Difference Awareness: Measuring Desired Group Discrimination in LLMs
ICML 선정 2025년 Outstanding 논문
ICML(International Conference on Machine Learning), 최신 딥러닝, 강화학습, 생성형 인공지능 연구 가장 먼저 발표하는 학회

AI가 스도쿠를 푸는 법: '어려운 훈련, 똑똑한 실행'의 비밀
Train for the Worst, Plan for the Best: Understanding Token Ordering in Masked Diffusions

수동적인 답변자에서 적극적인 협력자로: 똑똑한 대화형 인공지능 훈련법
CollabLLM: From Passive Responders to Active Collaborators

미리 생각하게 가르쳐 인공지능의 창의력 높이기
Roll the dice & look before you leap: Going beyond the creative limits of next-token prediction

AI의 성능 보증서, 더 믿을 수 있게 만드는 새로운 방법
Conformal Prediction as Bayesian Quadrature

어려운 사람을 돕는 똑똑한 방법, 인공지능 예측 기술
The Value of Prediction in Identifying the Worst-Off

구멍 뚫린 데이터로도 전체 그림을 똑똑하게 배우는 방법
Score Matching with Missing Data

NEW! 주목할 만한 국내 연구자 논문 아카이브 신설 예정
더 많은 사람들에게
연구 논문을 소개해보세요
디써클은 보다 많은 연구들이 세상에 알려질 수 있도록
본 서비스를 무료로 제공합니다. 본인의 연구,
소개되었으면 하는 연구들이 있다면 공유해주세요.
AAAI 선정 2025년 Outstanding Awards 수상 논문
AAAI(Association for the Advancement of Artificial Intelligence), 논문 채택 경쟁률이 치열한 AI 종합 학회

똑똑한 질문 몇 개로 모두가 만족하는 최고의 짝을 찾아주는 방법
Every Bit Helps: Achieving the Optimal Distortion with a Few Queries

안갯속에서 길 찾기: 가끔씩 위치를 알려주는 힌트로 완벽한 계획 세우기
Revelations: A Decidable Class of POMDPs with Omega-Regular Objectives

똑똑한 AI의 '셀프 첨삭' 시스템: 직관과 이성의 완벽한 팀플레이
Efficient Rectification of Neuro-Symbolic Reasoning Inconsistencies by Abductive Reflection

시민들이 찍은 자연 사진, 인공지능을 훈련시킬 때 어떤 문제가 생길까?
DivShift: Exploring Domain-Specific Distribution Shifts in Large-Scale, Volunteer-Collected Biodiversity Datasets
NAACL 선정 2025년 Awards 수상 논문
NAACL(The Nations of the Americas Chapter of the Association for Computational Linguistics), 자연어 처리 분야에서 ACL와 더불어 최상위 학회

똑똑한 AI 조수를 위한 과학 논문 질의응답 학습 자료, PeerQA
PeerQA: A Scientific Question Answering Dataset from Peer Reviews

"이 문제는 AI를 잘 속이는 문제일까?" 사람 기준으로 평가하는 새로운 점수, 애드스코어
Is your benchmark truly adversarial? AdvScore: Evaluating Human-Grounded Adversarialness

AI를 현미경으로 들여다보기: 문장을 잘게 쪼개보니 드러난 AI의 진짜 실력
NLI under the Microscope: What Atomic Hypothesis Decomposition Reveals

AI 언어 능력 시험: 아프리카 언어를 위한 새로운 평가 기준, 이로코벤치
IrokoBench: A New Benchmark for African Languages in the Age of Large Language Models

AI의 진짜 실력 알아보기: 상식에 어긋나는 엉뚱한 정보로 추리력 시험하기
ACCORD: Closing the Commonsense Measurability Gap

AI 선생님 만들기: 학생들의 손글씨 수학 풀이를 평가하는 새로운 방법
DrawEduMath: Evaluating Vision Language Models with Expert-Annotated Students’ Hand-Drawn Math Images

AI가 예시를 보고 배우는 방법: 진짜 학습일까, 아니면 기억력일까?
Learning vs Retrieval: The Role of In-Context Examples in Regression with Large Language Models

실수하지 않고 똑똑하게 말하는 인공지능 만들기
A Logical Fallacy-Informed Framework for Argument Generation
ACL 선정 2025년 Best 논문
ACL (Association for Computational Linguistics), 자연어처리 분야에서 가장 국제적으로 권위있는 학회

인공지능의 집중력 훈련: 불필요한 정보는 건너뛰고 핵심만 파악하는 새로운 기술
Native Sparse Attention: Hardware-Aligned and Natively Trainable Sparse Attention

인공지능의 대답에 숨겨진 비밀: 현실과 이상의 사이
A Theory of Response Sampling in LLMs: Part Descriptive and Part Prescriptive

고무줄 같은 인공지능: 착하게 만들어도 자꾸 원래대로 돌아가려는 이유
Language Models Resist Alignment: Evidence From Data Compression

인공지능의 공정함, 상황에 맞게 ‘차이’를 알아야 진짜 공정하다
Fairness through Difference Awareness: Measuring Desired Group Discrimination in LLMs
ICML 선정 2025년 Outstanding 논문
ICML(International Conference on Machine Learning), 최신 딥러닝, 강화학습, 생성형 인공지능 연구 가장 먼저 발표하는 학회

AI가 스도쿠를 푸는 법: '어려운 훈련, 똑똑한 실행'의 비밀
Train for the Worst, Plan for the Best: Understanding Token Ordering in Masked Diffusions

수동적인 답변자에서 적극적인 협력자로: 똑똑한 대화형 인공지능 훈련법
CollabLLM: From Passive Responders to Active Collaborators

미리 생각하게 가르쳐 인공지능의 창의력 높이기
Roll the dice & look before you leap: Going beyond the creative limits of next-token prediction

AI의 성능 보증서, 더 믿을 수 있게 만드는 새로운 방법
Conformal Prediction as Bayesian Quadrature

어려운 사람을 돕는 똑똑한 방법, 인공지능 예측 기술
The Value of Prediction in Identifying the Worst-Off

구멍 뚫린 데이터로도 전체 그림을 똑똑하게 배우는 방법
Score Matching with Missing Data

NEW! 주목할 만한 국내 연구자 논문 아카이브 신설 예정
더 많은 사람들에게 연구 논문을 소개해보세요
디써클은 보다 많은 연구들이 세상에 알려질 수 있도록 본 서비스를 무료로 제공합니다.
본인의 연구, 소개되었으면 하는 연구들이 있다면 공유해주세요.
AAAI 선정 2025년 Outstanding Awards 수상 논문
AAAI(Association for the Advancement of Artificial Intelligence), 논문 채택 경쟁률이 치열한 AI 종합 학회

똑똑한 질문 몇 개로 모두가 만족하는 최고의 짝을 찾아주는 방법
Every Bit Helps: Achieving the Optimal Distortion with a Few Queries

안갯속에서 길 찾기: 가끔씩 위치를 알려주는 힌트로 완벽한 계획 세우기
Revelations: A Decidable Class of POMDPs with Omega-Regular Objectives

똑똑한 AI의 '셀프 첨삭' 시스템: 직관과 이성의 완벽한 팀플레이
Efficient Rectification of Neuro-Symbolic Reasoning Inconsistencies by Abductive Reflection

시민들이 찍은 자연 사진, 인공지능을 훈련시킬 때 어떤 문제가 생길까?
DivShift: Exploring Domain-Specific Distribution Shifts in Large-Scale, Volunteer-Collected Biodiversity Datasets
NAACL 선정 2025년 Awards 수상 논문
NAACL(The Nations of the Americas Chapter of the Association for Computational Linguistics), 자연어 처리 분야에서 ACL와 더불어 최상위 학회

똑똑한 AI 조수를 위한 과학 논문 질의응답 학습 자료, PeerQA
PeerQA: A Scientific Question Answering Dataset from Peer Reviews

"이 문제는 AI를 잘 속이는 문제일까?" 사람 기준으로 평가하는 새로운 점수, 애드스코어
Is your benchmark truly adversarial? AdvScore: Evaluating Human-Grounded Adversarialness

AI를 현미경으로 들여다보기: 문장을 잘게 쪼개보니 드러난 AI의 진짜 실력
NLI under the Microscope: What Atomic Hypothesis Decomposition Reveals

AI 언어 능력 시험: 아프리카 언어를 위한 새로운 평가 기준, 이로코벤치
IrokoBench: A New Benchmark for African Languages in the Age of Large Language Models

AI의 진짜 실력 알아보기: 상식에 어긋나는 엉뚱한 정보로 추리력 시험하기
ACCORD: Closing the Commonsense Measurability Gap

AI 선생님 만들기: 학생들의 손글씨 수학 풀이를 평가하는 새로운 방법
DrawEduMath: Evaluating Vision Language Models with Expert-Annotated Students’ Hand-Drawn Math Images

AI가 예시를 보고 배우는 방법: 진짜 학습일까, 아니면 기억력일까?
Learning vs Retrieval: The Role of In-Context Examples in Regression with Large Language Models

실수하지 않고 똑똑하게 말하는 인공지능 만들기
A Logical Fallacy-Informed Framework for Argument Generation
기업 서비스