라벨이 MediAI인 게시물 표시

청각 기반 뇌-컴퓨터 인터페이스 구현을 위한 골전도 이어폰의 혁신적 활용 가능성

이미지
 청각 기반 뇌-컴퓨터 인터페이스 구현을 위한 골전도 이어폰의 혁신적 활용 가능성 doi:10.9718/JBER.2020.41.1.22 서론 뇌-컴퓨터 인터페이스(Brain-Computer Interface, BCI)는 인간의 뇌 신호를 해석하여 기기 제어, 의사소통, 재활 치료 등 다양한 분야에 적용할 수 있는 차세대 기술이다.  특히 청각 기반 BCI(Auditory-based BCI)는 시각적 집중이 어려운 환경이나, 이동성이 필요한 상황에서 유용하게 활용될 수 있는 방식으로 주목받고 있다.  그러나 기존 청각 자극 전달 방식에는 한계가 있다.  일반 이어폰은 외이도를 막아 주변 소리를 차단함으로써 환경음 인지가 어려워지고, 스피커는 휴대성과 개인화 측면에서 불리하다. 이러한 한계를 해결할 수 있는 대안으로 골전도 이어폰(Bone Conduction Earphone)이 부상하고 있다.  골전도 이어폰은 외이도를 막지 않고 두개골 진동을 통해 소리를 내이로 전달하기 때문에, 주변 환경음을 유지하면서도 명확한 청각 자극 전달이 가능하다.  본 포스팅에서는 전남대학교 의공학과 연구팀(이주옥, 주경호, 김도원)의 논문 「청각 기반 뇌-컴퓨터 인터페이스 구현을 위한 골전도 이어폰의 활용 가능성」 연구 결과를 기반으로, 골전도 이어폰이 EEG 기반 청각 BCI에서 얼마나 실용적인지 심층 분석한다. 골전도 이어폰과 청각 BCI: 기술적 배경 1. EEG와 청각 자극 뇌전도(EEG)는 뇌의 전기생리학적 활동을 비침습적으로 측정할 수 있는 대표적인 신경과학 도구다. 청각 기반 실험에서 EEG는 특정 음향 자극에 대한 사건 유발 전위(Event-Related Potential, ERP)나 청성 안정 유발 반응(Auditory Steady-State Response, ASSR)을 측정하는 데 활용된다. 특히 ERP의 N100 성분은 청각 자극 후 약 100ms 전후에 발생하는 뚜렷한 음성 전위로, 자극 인식과...

뇌종양 MRI의 인공지능 기반 분류 및 세분화: MediAI를 활용한 정밀 진단 접근

이미지
 뇌종양 MRI의 인공지능 기반 분류 및 세분화: MediAI를 활용한 정밀 진단 접근 doi: 10.4283/JMAG.2025.30.1.74 개요 뇌종양, 특히 교모세포종(Glioblastoma)은 높은 악성도와 예후 불량으로 인해 신경종양학에서 가장 도전적인 질환 중 하나입니다. 본 컬럼에서는 MRI 영상 기반으로 뇌종양을 자동으로 분류 및 병변 부위 세분화 할 수 있는 딥러닝 기반 모델인 MediAI 를 소개합니다. 이 모델은 ResNet50 기반의 전이학습(Transfer Learning)을 활용하여 학습되었으며, 총 453장의 다양한 유형의 뇌종양 MRI 이미지를 학습 데이터로 활용하였습니다. 그 결과, MediAI는 97.6%의 높은 분류 정확도 를 달성하였고, 교모세포종에 대해 정교한 세분화(segmentation)를 구현하여 향후 치료 반응 추적과 예후 평가에 활용 가능한 가능성을 제시하였습니다. 1. 서론 뇌종양은 유전적 요인, 면역계 이상, 환경 요인 등 복합적인 원인으로 발생하며, MRI는 비침습적으로 뇌의 병변을 고해상도로 관찰할 수 있어 진단의 골드 스탠다드 로 활용됩니다. 특히 교모세포종(Glioblastoma)은 고형 뇌종양 중 가장 예후가 나쁘고 침윤성이 강하여 조기 진단 및 정확한 병변 분석이 매우 중요합니다. 이에 본 연구에서는 AI 기반으로 뇌종양을 MRI로 정확히 분류하고 , 병변 영역을 자동 추출 할 수 있는 MediAI 모델을 제안하였습니다. 2. 연구 방법 2.1 데이터셋 구성 총 453장의 MRI 데이터로 구성된 데이터셋: 86장 : 선종(Adenoma) 84장 : 상피종(Epithelial tumor) 82장 : 교모세포종(Glioblastoma) 80장 : 수막종(Meningioma) 82장 : 신경초종(Schwannoma) 39장 : 정상 뇌 영상 출처: GitHub, NEJM, AuntMinnie, Medscape, RadiologyCas...