라벨이 영상의학AI인 게시물 표시

ChatGPT-4 Turbo를 활용한 영상의학 AI 성능 모니터링의 혁신: 뇌출혈 검출 시스템 사례 분석

이미지
  ChatGPT-4 Turbo를 활용한 영상의학 AI 성능 모니터링의 혁신: 뇌출혈 검출 시스템 사례 분석 서론 의료 인공지능(AI)은 영상의학 분야에서 빠르게 확산되고 있으며, 특히 응급 상황에서 빠른 진단이 필요한 외상성 두부 손상(traumatic brain injury) , 자발성 뇌출혈(intracranial hemorrhage, ICH) 등의 탐지에 큰 역할을 하고 있습니다.  그러나 AI 모델의 성능은 시간이 지남에 따라 성능 드리프트(performance drift)가 발생할 수 있으며, 이는 환자 안전에 직결되는 문제입니다. 최근 Baylor College of Medicine과 Radiology Partners Research Institute 연구팀은 ChatGPT-4 Turbo 를 활용하여, 상용 딥러닝 기반 ICH 검출 시스템(Aidoc)의 배포 후(post-deployment) 성능을 실시간에 가깝게 모니터링하는 방법을 제안하였습니다. 1. 연구 배경 기존의 AI 성능 감시(drift detection)는 주로 실시간 피드백(real-time feedback)과 정답 데이터(ground truth) 확보를 기반으로 하지만, 의료 환경에서는 진단 확정까지 시간이 오래 걸려 실시간 모니터링이 어렵습니다.  이러한 한계를 극복하기 위해, 연구팀은 HIPAA 준수 환경의 Microsoft Azure에서 구동되는 ChatGPT-4 Turbo를 데이터 추출 및 분석에 활용하였습니다. 1.1 성능 드리프트의 위험성 영상 장비 제조사 변경, 환자 집단 특성 변화, 영상 획득 프로토콜 차이 등 다양한 요인으로 AI 성능이 변할 수 있습니다. 정기적인 성능 검증과 업데이트 가 필요하지만, 수작업 검토는 인력과 비용 부담이 크다는 단점이 있습니다. 2. 연구 방법 2.1 데이터 수집 연구팀은 미국 내 37개 Radiology Partners 소속 기관 에서 수집된 332,809건의 무조영...

AI 기반 응급 영상의 검토: LLM과 ACR 지침의 조화

이미지
  AI 기반 응급 영상의 검토: LLM과 ACR 지침의 조화 doi:10.1038/s43856-025-01061-9 서론: 의료 AI와 응급 영상의 중요성 응급실에서 신속하고 정확한 영상의학 검사 선택은 질환 진단의 핵심입니다. 하지만 임상의들 간에도 검사 선택은 크게 다를 수 있으며, 이는 환자의 방사선 노출, 진료 효율, 의료 비용 측면에서 큰 과제입니다. 본 논문은 RadCases 데이터셋 과 ACR Appropriateness Criteria (ACR AC) 지침을 활용하여, 대형 언어 모델(LLM)이 임상 상황에 따라 적절한 영상 검사를 제안하는 시스템을 개발하고 검증한 최초의 연구입니다. 데이터와 방법: RadCases와 증거 기반 파이프라인 RadCases 데이터셋 : 1500개 이상의 실제 환자 한 줄 요약("one-liner")을 ACR AC 주제별 레이블로 정리  기저 모델 평가 : Claude Sonnet-3.5 등 LLM이 주어진 one-liner에 대해 직접 영상 검사를 추천하는 방식은 ACR과 일치하지 않는 경우가 많았고, 과잉 또는 누락 오류도 존재함  증거 기반 추론 파이프라인 : LLM으로 ACR 주제(Topic)를 예측한 뒤, ACR AC에서 해당 주제에 적합한 영상을 찾아 추천하는 방식 도입으로 정확도 및 신뢰도 향상 그림 설명 그림 1.  Large Language Models Struggle with Diagnostic Imaging Ordering. – Claude Sonnet-3.5 모델이 진단 영상 검사 추천에서 ACR 지침과 어긋나는 경우가 흔하고, 불필요하거나 부적절한 검사를 추천하거나 필요한 검사를 누락함을 시각화. 그림 2–3.  Topic Accuracy 및 Imaging Accuracy 정의 및 최적화 전략(RAG, ICL, COT, MFT)의 효과 비교.\ – RAG(검색 강화 생성), ICL(문맥 내 학습), COT(사고의 흐름 유...

AI 기반 MRI 딥러닝 모델을 활용한 난소 병변 분류의 최신 혁신

이미지
  AI 기반 MRI 딥러닝 모델을 활용한 난소 병변 분류의 최신 혁신 — SAM과 DenseNet-121 통합의 임상 적용 가능성과 미래 전망 doi:10.1148/radiol.243412 서론: 난소 병변 진단의 과제와 MRI의 가능성 난소 병변은 양성과 악성을 정확히 구분하는 것이 매우 중요하며, 조기 진단 실패 시 치명적인 결과를 초래할 수 있습니다. 초음파는 일차 진단 도구로 많이 활용되지만, 조직 대비(contrast) 및 병변 특성화 측면에서 자기공명영상(MRI)이 우수하다는 것이 다수 연구에서 입증되었습니다. 하지만 MRI 판독은 고도로 숙련된 영상의학과 전문의의 주관적 해석에 의존하며, 시간과 비용이 많이 소요되는 단점이 있습니다. 최근 이러한 문제를 해결하기 위해 딥러닝(deep learning, DL)과 같은 인공지능(AI) 기술이 활발히 도입되고 있으며, 특히 Meta의 Segment Anything Model(SAM)과 DenseNet-121을 통합한 모델이 주목받고 있습니다. 본 연구: SAM과 DL 기반의 난소 병변 분류 모델 개발 미국 존스홉킨스대학교의 Wen-Chi Hsu 박사 연구팀은 MRI 기반 난소 병변 분류에서 딥러닝의 가능성을 입증하기 위해 Meta의 SAM을 활용한 자동 병변 분할 시스템과 DenseNet-121 분류기를 통합한 종단형(end-to-end) 파이프라인을 제안했습니다 . 그림 1. SAM 기반 자동 병변 분할 워크플로우 그림 1.  29세 여성의 우측 난소 점액성 암종(mucinous carcinoma) 사례에서 SAM이 T1CE 및 T2WI 영상에 설정된 bounding box(빨간색)를 기반으로 자동 분할 마스크(녹색)를 생성하는 모습. 딥러닝 모델 구조 입력: 전처리된 T1CE 및 T2WI MRI 영상 + 임상 데이터 네트워크 구조: 3D CNN, MLP, D-NonL 모듈 포함 듀얼 패스 네트워크 출력: 악성/양성 여부 이진 분류 그림 2. 전체...