제약 및 생물학적 제제 분야 규제 우수성을 위한 인공지능 활용
2025년 1월, FDA는 의약품 안전성, 유효성 및 품질에 대한 규제 결정을 지원하는 정보 또는 데이터를 생성하기 위한 인공지능(AI) 사용에 관한 초안 지침을 업계 및 이해관계자에게 발표했습니다. 이는 AI를 규제 환경에 통합하는 중요한 단계이며, AI 모델의 신뢰성을 평가하기 위한 명확한 프레임워크를 제공합니다.
7단계 위험 기반 프로세스
이 지침은 AI 모델의 신뢰성을 확립하고 평가하기 위한 구조화된 7단계 위험 기반 프로세스를 설명합니다:

관심 질문 정의
AI 모델이 다룰 주제를 명확하게 설명하십시오.

사용 맥락(COU) 정의
AI 모델의 역할과 범위, 모델링될 프로세스 및 출력물이 어떻게 적용될 것인지를 상세히 설명하십시오.

AI 모델 위험 평가
위험은 다음을 기반으로 평가합니다: - 중요성: 모델을 사용하여 내린 결정의 결과. - 모델 영향력: 가능한 추가 제어를 고려하여 모델의 출력에 의존하는 정도. 위험 평가는 후속 활동에 필요한 세부 수준을 결정합니다.

신뢰성 평가 계획 수립
계획에는 다음이 포함되어야 합니다: - 모델 개발: 사용된 데이터, 훈련 방법 및 개발 프로세스. - 모델 평가: 데이터 분리, 적용 가능성, 결과 평가 및 품질 관리.

계획 실행
명시된 신뢰성 평가 활동을 이행하십시오.

신뢰성 평가 보고서 작성
결과를 문서화하고, 편차의 영향을 논의하며, 모델 성능에 대한 통찰력을 제공하십시오.

모델 적합성 결정
신뢰성 평가 보고서를 사용하여 AI 모델이 의도된 COU에 적합한지 평가하십시오. 기준에 미달하는 모델의 경우, 이 지침은 가능한 시정 조치를 설명합니다.
AI 모델 유지보수 및 모니터링
AI 모델은 동적인 특성으로 인해 지속적인 모니터링이 필요합니다. 유지보수 활동은 모델 위험 수준과 일치해야 하며 계획에 명확하게 상세히 기술되어야 합니다.
FDA의 협력적 접근 방식
FDA는 계획 및 실행 단계에서 개발자와의 조기 및 상호작용적 참여를 장려합니다. 이러한 협력적 접근 방식은 명확한 기대를 설정하고 문제를 사전에 해결하는 것을 목표로 합니다.

저자 소개
이 블로그는 Rephine의 제약 컨설턴트 Sergi Arcas가 작성했습니다. 제약 산업의 규제 준수 및 AI 통합에 대한 더 많은 통찰력을 얻으려면 Rephine에 문의하십시오.