[Hinews 하이뉴스] 서울대병원은 원내 헬스케어AI연구원이 개발한 의료 특화 인공지능(AI) 모델 2종을 최근 오픈소스로 공개했다고 9일 밝혔다. 공개된 모델은 흉부 X-ray 판독 AI와 의료 추론에 특화된 거대언어모델이다.
이번에 공개한 모델은 흉부 X-ray 영상을 분석해 판독문을 생성하는 ‘mvl-rrg-1.0’과 임상 정보를 종합해 진단 과정을 보조하는 텍스트 기반 의료 AI ‘hari-q2.5-thinking’이다. 두 모델 모두 실제 진료 현장에서 의료진의 판단 과정을 지원하도록 설계됐다.
이번 연구는 과학기술정보통신부의 ‘AI 연구용 컴퓨팅 지원 프로젝트’ 지원을 받아 진행됐다. 서울대병원은 대규모 의료 데이터를 활용한 AI 연구 역량을 인정받아 지원 대상으로 선정됐으며, 고성능 GPU 인프라를 기반으로 의료 영상과 텍스트를 결합한 모델 학습 환경을 구축했다.
서울대병원 전경 (사진 제공=서울대병원)
영상 판독 AI ‘mvl-rrg-1.0’은 흉부 X-ray를 분석해 판독문을 자동으로 생성한다. 단일 영상 판독에 그치지 않고, 과거 영상과 현재 영상을 비교해 병변의 변화 양상을 반영하도록 설계됐다. 공개 의료 영상 데이터 약 36만 건을 학습했으며, 국제 학계에서 활용되는 자연어 생성 지표에서도 경쟁력 있는 결과를 보였다.
이 모델은 진료실에서 환자에게 치료 경과를 설명하거나, 응급실에서 신속한 판단이 필요한 상황에서 영상 판독 부담을 줄이는 데 활용될 수 있다.
‘hari-q2.5-thinking’은 환자의 증상, 병력, 임상 기록을 종합해 감별 진단과 추가 검사 필요성을 단계적으로 제시하는 의료 추론 AI다. 한국 의사국가고시(KMLE) 모의 테스트에서 높은 정확도를 기록하며 임상적 사고 능력을 검증했다. 복합 증상으로 진단이 어려운 환자 진료나 의료 교육 과정에서 보조 도구로 활용 가능하다.
서울대병원은 향후 내과, 외과, 소아청소년과 등 17개 진료과별 특화 모델로 확장을 추진하고 있으며, 여러 AI가 역할을 나눠 판단을 지원하는 멀티에이전트 시스템 구축도 진행 중이다. 임상 검증이 완료되는 대로 관련 모델을 순차적으로 공개할 계획이다.
이형철 헬스케어AI연구부원장은 “영상과 텍스트를 함께 분석하는 의료 AI 연구 환경이 마련됐다”며 “이번 모델들이 임상 현장에서 의료진의 판단을 보다 효율적으로 돕는 기반이 되길 기대한다”고 말했다.