[팜뉴스=우정민 기자] 유럽연합이 세계 최초로 인공지능(AI) 활용에 대한 포괄적 규제를 담은 ‘EU AI Act(유럽연합 인공지능 규제법)’를 시행하면서, 제약·바이오 산업이 중대한 전환기를 맞고 있다. 신뢰받는 기술 생태계를 조성하겠다는 당국의 의지와, 실제 산업 현장에서의 제도 적용 간 간극이 드러나면서, 기대와 우려가 교차하는 분위기다.
유럽연합이 2024년 7월 12일 공식 관보에 게재한 EU AI Act(Regulation (EU) 2024/1689)는 AI 시스템을 위험 수준에 따라 네 단계로 분류했다. ‘허용 불가(unacceptable risk)’부터 ‘최소 위험(minimal risk)’까지 각 범주에 따라 적용 규제를 달리하며, 의료 AI는 ‘고위험(high risk)’군에 포함된다. EU AI Act는 2024년 8월 1일 공식 발효됐으며, 2025년 2월부터는 AI 리터러시 의무 조항이 먼저 적용됐다. 전체 법령은 2026년 8월부터 고위험 AI에 대한 본격적인 규제 집행과 함께 완전 시행에 들어간다.
신약 개발과 진단·치료 기술에 AI를 도입한 글로벌 제약사들은 이미 속속 대응에 나섰다. 일라이 릴리(Eli Lilly), 사노피(Sanofi), 바이오엔텍(BioNTech) 등은 AI 기반 플랫폼과 연계해 신약 탐색과 임상 전략을 고도화하고 있으며, 엔비디아(NVIDIA)는 게인 테라퓨틱스(Gain Therapeutics)와의 협업을 통해 약물 발굴 플랫폼 ‘Magellan’을 시장에 안착시키려 하고 있다.
AI 기술이 의료기기에 접목되면서 기존 유럽 의료기기 규제(MDR)와의 정합성 문제도 부상하고 있다. 독일 뮌헨(Munich)에 본사를 둔 의료기기 업체 Custom Surgical의 페르난도 보니토(Fernando Bonito) 최고기술책임자(CTO)는 2025년 4월 열린 LSX World Congress에서, “MDR 기준에는 위험 기반 접근법이 명시돼 있지 않아, AI Act와의 연계가 현실적 혼선을 유발할 수 있다”고 말했다. LSX World Congress는 제약·바이오·의료기기·헬스테크 분야의 글로벌 경영진과 투자자, 규제 전문가들이 한자리에 모이는 유럽 최대 규모의 생명과학 산업 콘퍼런스다.
규제 부담은 중소기업과 스타트업에 더 크게 작용할 수 있다는 분석도 있다. 특히 의료용 AI의 경우 CE 인증(제품이 EU 규정에 따라 안전성과 적합성을 갖췄다는 것을 증명하는 유럽 공식 인증)을 의료기기 자체와 AI 알고리즘 각각에 대해 이중으로 받아야 하므로, 제품 출시 지연과 비용 증가가 불가피하다는 지적이다.
이번 규제는 교육 영역까지 포함돼, 조직 내 직원들에게도 새롭게 지켜야 할 의무를 부여하고 있다. 2025년 2월부터는 제약사, 바이오텍, 의료기기 제조사 등 AI 기술을 사용하는 조직의 구성원과 관련 외부자에게 AI 리터러시(literacy)’ 교육이 의무화됐다. 단순한 기초 교육을 넘어, AI 시스템의 원리 이해, 잠재적 위험 인식, 기술적 출력 해석 등 실무 적용 능력까지 포괄해야 한다.
다만 이러한 규제가 과연 유럽의 혁신 생태계를 뒷받침할 수 있을지는 여전히 미지수다. 영국의 생명과학 특화 로펌 브리스토스(Bristows)와 글로벌 헬스케어 데이터 기업 아이큐비아(IQVIA)가 공동으로 발표한 보고서에서, 두 기관은 GDPR이 처음 도입됐을 당시처럼, 규정 해석의 모호함과 회원국 간 집행 차이가 자칫 유럽 내 혁신을 저해할 수 있다고 지적했다. 특히 “AI 기술을 평가할 능력이 부족한 인증기관이 많아, 제품 승인 절차가 늦어질 수 있다”고 지적했다. 일반개인정보보호법(GDPR)은 2018년부터 시행된 EU의 개인정보 보호 규정으로, 이용자의 동의, 데이터 최소화, 정보 삭제 권리 등을 법적으로 보장한다.
데이터 규제 간 충돌 우려도 제기된다. GDPR은 ‘데이터 최소화’를, AI Act는 ‘대표성 있는 방대한 학습데이터’를 강조한다. 이로 인해 특정 인구집단이 데이터 수집을 거부할 경우, 두 규제를 동시에 충족하기 어렵다는 현장의 목소리가 나오고 있다.
그럼에도 일부 전문가들은 EU AI Act가 글로벌 기준 수립의 마중물이 될 수 있다고 본다. 독일의 전략컨설팅사 롤랜드버거(Roland Berger)는 2024년 5월 보고서에서, EU AI Act가 GDPR처럼 향후 글로벌 인공지능 규제의 기준이 될 수 있다고 전망했다. 보고서는 “데이터 보호에 있어 GDPR이 세계 표준이 된 것처럼, 이번 법안도 국제적 규제 방향에 영향을 줄 것”이라고 밝혔다.
산업계에서는 인공지능 규제를 보다 현실적으로 적용하기 위해, 의료기기 품질관리 기준인 ISO 13485같은 기존 국제 표준을 활용하자는 목소리도 나온다. 이 기준은 의료기기를 안전하게 설계하고 관리하기 위한 기업 내부 절차를 담은 것으로, 새로운 규제에 대응하는 데 도움이 될 수 있다는 설명이다. 규제의 신뢰성과 산업의 혁신성을 동시에 확보하기 위한 정책 조율이 향후 핵심 과제로 부상할 것으로 보인다.
개의 댓글
댓글 정렬
그래도 삭제하시겠습니까?
