서울대병원이 주관하고 세브란스병원 등 9개 기관이 참여한 공동 연구팀은 부모가 직접 촬영한 짧은 영상을 인공지능(AI)으로 분석해 자폐 위험을 예측하는 모델을 개발했다고 14일 밝혔다. 이 모델은 AUROC 0.83, 정확도 75%를 기록하며 조기 선별 가능성을 확인했다. 연구 결과는 국제학술지 npj Digital Medicine에 실렸다.
연구팀은 생후 18~48개월 아동 510명(자폐 아동 253명, 일반 아동 257명)을 대상으로 이름 부르기, 모방 행동, 공 주고받기 등 세 가지 과제를 수행하는 장면을 부모가 각 1분 이내로 촬영하게 했다. 영상을 모바일 앱으로 전송하면, AI가 음성, 관절 움직임, 공의 위치 등을 분석해 반응 속도·눈맞춤·상호작용 시간 등의 행동 지표를 수치화하고, 이를 바탕으로 자폐 가능성을 예측했다.

자폐 아동은 이름에 대한 반응이 느리고, 눈맞춤 시간이 짧으며 부모의 개입이 더 자주 필요했다. AI가 놓친 사례 대부분은 증상이 경미하거나 경계선에 있는 아동으로, 향후 관찰과 개입이 필요한 집단으로 분석됐다.
기존 자폐 진단 도구(ADOS-2, K-CARS 등)는 높은 정확도를 갖고 있지만, 전문가의 대면 평가와 긴 대기 시간이 필요해 조기 개입이 어려웠다. 이번 모델은 영상 분석에 평균 14초만 소요되고, 의료진 개입 없이도 위험군을 빠르게 선별할 수 있어 접근성과 효율성을 높였다는 평가다.
특히 의료 인프라가 부족한 지역이나 대기 시간이 긴 환경에서 1차 선별 도구로 활용 가능성이 높다.

김붕년 교수는 “진단 지연이 잦은 현실에서, 부모가 직접 참여해 조기에 선별할 수 있는 방식은 실질적인 대안이 될 수 있다”고 말했다.
이번 연구는 국립정신건강센터의 지원을 받아 진행됐다.
임혜정 하이뉴스(Hinews) 기자
press@hinews.co.kr