Sfruttare l'intelligenza artificiale per l'eccellenza normativa nel settore farmaceutico e biologico
Nel gennaio 2025, la FDA ha pubblicato una bozza di guida per l’industria e le parti interessate sull’uso dell’intelligenza artificiale (IA) per generare informazioni o dati a supporto delle decisioni normative in merito a sicurezza, efficacia e qualità dei farmaci. Questo segna un passo significativo nell’integrazione dell’IA nel panorama normativo, offrendo un quadro chiaro per valutare la credibilità del modello di IA.
Il processo in sette fasi basato sul rischio
La guida delinea un processo strutturato in sette fasi, basato sul rischio, per stabilire e valutare la credibilità di un modello di IA:

Definire la domanda di interesse
Articolare chiaramente gli argomenti che il modello di IA affronterà.

Definire il contesto d'uso (COU)
Dettagliare il ruolo e la portata del modello di IA, compresi i processi che verranno modellati e come verranno applicati i suoi output.

Valutare il rischio del modello di IA
Valutare il rischio in base a: - Criticità: la conseguenza delle decisioni prese utilizzando il modello. - Influenza del modello: la misura in cui si fa affidamento sugli output del modello considerando possibili controlli aggiuntivi. La valutazione del rischio determina il livello di dettaglio richiesto nelle attività successive.

Sviluppare un piano di valutazione della credibilità
Il piano dovrebbe affrontare: - Sviluppo del modello: dati utilizzati, metodi di addestramento e processi di sviluppo. - Valutazione del modello: segregazione dei dati, applicabilità, valutazione dei risultati e controlli di qualità.

Eseguire il piano
Implementare le attività di valutazione della credibilità come indicato.

Preparare un rapporto di valutazione della credibilità
Documentare i risultati, discutere gli effetti di eventuali deviazioni e fornire approfondimenti sulle prestazioni del modello.

Determinare l'adeguatezza del modello
Utilizzare il rapporto di valutazione della credibilità per valutare se il modello di IA è adatto al suo COU previsto. Per i modelli che non sono all'altezza, la guida delinea possibili azioni correttive.
Manutenzione e monitoraggio dei modelli di IA
I modelli di IA richiedono un monitoraggio continuo a causa della loro natura dinamica. Le attività di manutenzione devono essere allineate ai livelli di rischio del modello ed essere chiaramente dettagliate nei piani.
Approccio collaborativo della FDA
La FDA incoraggia un coinvolgimento precoce e interattivo con gli sviluppatori durante le fasi di pianificazione ed esecuzione. Questo approccio collaborativo mira a stabilire aspettative chiare e ad affrontare le sfide in modo proattivo.

Informazioni sull'autore
Questo blog è stato scritto da Sergi Arcas, Pharmaceutical Consultant presso Rephine. Per ulteriori approfondimenti sulla conformità normativa e l'integrazione dell'IA nell'industria farmaceutica, contattaci presso Rephine.