의료 인공지능(AI) 기술이 급격히 발전하면서, 가장 큰 뇌관으로 지목되는 것이 민감 데이터 유출 문제다. 의료 AI를 학습시키려면 막대한 양의 의료 데이터가 필요하다. AI를 운영하는 테크 기업들이 이용자의 건강 정보나 의료 기록을 파악할 수 있다는 우려와 함께, 해킹 등으로 민감한 정보가 유포될 수 있다는 것이다.

구글은 2019년 미국의 대형 비영리 병원 체인인 ‘어센션(Ascension)’과 비밀리에 제휴를 맺고, 최소 1000만명의 개인 정보와 병력 등을 수집했다. 환자와 의료진도 데이터가 구글로 넘어간다는 사실을 전혀 몰랐다. 구글은 이 데이터를 분석해 새로운 의료 소프트웨어와 AI를 만들 계획이었다.

최근 AI 기업들은 민감한 의료 데이터를 가명 처리하는 방식으로 개인 정보를 보호하고 있다. 문제는 가명 정보도 재식별될 위험이 커졌다는 것이다. 독일 프라운호퍼 연구진은 AI 소프트웨어를 통해 뇌 MRI 영상만으로도 실제 얼굴을 복원하고, 영상의 주인을 찾아낼 수 있다고 지적했다. 현재의 데이터 비식별화 조치로는 개인 정보를 충분히 보호할 수 없다는 것이다.

해킹 우려도 적지 않다. 서울아산병원 심장내과 김영학 교수 연구팀은 의료 AI 모델에 대해 의도적으로 악성 공격을 시행한 결과, 약 81% 확률로 보안 조치가 침해됐다는 연구 결과를 내놨다. 답변 과정에서 원본 데이터를 노출할 가능성도 최대 22%에 달했다.

정부는 의료 AI에 필요한 데이터 공유를 활성화하면서도 개인 정보 보호를 강화하기 위해 한국형 메이요 클리닉(Mayo Clinic) 플랫폼 구축 사업을 시작한다. 메이요 클리닉은 의료 AI·데이터 통합 플랫폼을 운영하는 세계 최고의 스마트 의료 기관이다. 정부는 3년간 매년 60억원을 들여 의료 AI 데이터를 공동으로 활용할 수 있도록 한다. 블록체인 기술을 기반으로 개인 정보를 익명화해 민감 데이터 유출을 원천 차단한다는 계획이다.