Gli iscritti al Webinar di oggi – il cui tema è “Marketing e A.I.” [A.I. sta per Artificial Intelligence = I.A. che sta per Intelligenza Artificiale] – avranno modo di cogliere alcuni dei numerosi aspetti che coinvolgono/possono coinvolgere l’IA, ma soprattutto quello inerente strettamente alle strategie di mercato della farmacia; addirittura, salvo l’insorgere al momento di problemi squisitamente tecnici, Michela Pallonari [uno dei due relatori odierni l’altro è Emiliano Minella] interrogherà “in diretta” l’IA ponendo a quest’ultima domande riguardanti in linea generale profili di marketing della farmacia e quindi vi invitiamo, se già non vi avete provveduto, a iscrivervi al Webinar odierno.

Qui, invece, noi ci occuperemo brevemente – e però nello specifico – del rapporto tra l’IA e la privacy ma naturalmente con stretto riferimento ai “servizi sanitari”, in ordine ai quali il Garante della Privacy ha infatti pubblicato (il 10 ottobre 2023) un “decalogo” destinato testualmente alla “realizzazione di servizi sanitari a livello nazionale attraverso sistemi di intelligenza artificiale (IA)”.

I tre principi cardine del “decalogo” sono:

  • Trasparenza dei processi decisionali
  • Decisioni automatizzate supervisionate dall’uomo
  • Non discriminazione algoritmica

Trasparenza dei processi decisionali: i pazienti devono essere informati se i processi decisionali in ambito sanitario sono basati su trattamenti automatizzati effettuati attraverso strumenti di IA, e avere accesso alle informazioni sulla logica utilizzata per giungere a quelle decisioni.

Decisioni automatizzate supervisionate dall’uomo: i processi decisionali automatizzati devono essere supervisionati da personale sanitario, che possa controllare, validare o smentire l’elaborazione effettuata dagli strumenti di IA.

Non discriminazione algoritmica: i sistemi di IA devono essere progettati e utilizzati in modo da evitare discriminazioni, anche involontarie, nei confronti di singoli individui o gruppi.

* * *

Ora, ai fini e nel quadro del rispetto di questi tre principi cardine, il “decalogo” detta le seguenti prescrizioni:

Informazione dei pazienti: il titolare del trattamento deve informare i pazienti se i processi decisionali in ambito sanitario sono basati su trattamenti automatizzati effettuati attraverso strumenti di IA. L’informativa – che può essere effettuata anche attraverso campagne di comunicazione – deve essere chiara e comprensibile e fornire informazioni sulla logica utilizzata per arrivare a quelle decisioni.

Supervisione umana: i processi decisionali automatizzati devono essere supervisionati da personale sanitario, che possa controllare, validare o smentire l’elaborazione effettuata dagli strumenti di IA, e inoltre il personale sanitario va adeguatamente formato per svolgere questo compito.

Affidabilità dei sistemi di IA: il titolare del trattamento deve utilizzare sistemi di IA affidabili, che riducano gli errori dovuti a cause tecnologiche o umane, e deve anche verificare periodicamente l’efficacia dei sistemi di IA, mettendo in atto misure tecniche e organizzative adeguate.

Non discriminazione: i sistemi di IA devono essere progettati e utilizzati in modo da evitare discriminazioni, anche involontarie, nei confronti di singoli individui o gruppi e il titolare del trattamento è tenuto ad adottare misure per mitigare potenziali effetti discriminatori dei sistemi stessi.

Base giuridica: il trattamento di dati sulla salute attraverso tecniche di IA, effettuato per motivi di interesse pubblico in ambito sanitario, dovrà essere previsto da uno specifico quadro normativo, che individui misure adeguate a tutela dei diritti, delle libertà e dei legittimi interessi degli interessati.

Valutazione d’impatto: prima di effettuare trattamenti di dati sulla salute mediante sistemi nazionali di IA, è necessario svolgere una valutazione d’impatto, che a sua volta deve essere svolta a livello centrale per consentire un esame complessivo sull’adeguatezza e l’omogeneità degli accorgimenti adottati.

Descrizione dei trattamenti: la descrizione dei trattamenti deve includere informazioni sulle logiche algoritmiche utilizzate, sulle metriche impiegate per addestrare il modello, sui controlli svolti per verificare la presenza di eventuali bias [distorsione dei fatti] e sulla possibilità di una loro correzione.

* * *

In definitiva, il “decalogo” del Garante della Privacy – fornendo/dovendo fornire indicazioni chiare e concrete su come implementare i principi di trasparenza, supervisione umana e non discriminazione nei sistemi di IA utilizzati in ambito sanitario – rappresenta di per sé e con tutta evidenza un passo in avanti molto importante, e comunque irrinunciabile per la generalità degli utenti nella tutela dei loro diritti nell’utilizzo dell’IA in ambito sanitario.

Si tratta però, in ogni caso, di un tema vastissimo che per di più [nonostante che di IA si sia iniziato a parlare da oltre 50 anni] è ancora ai suoi primi effettivi anni di vita: come detto, però, se ne tratterà – anche e meglio – nel Webinar di oggi anche se di IA avremo in prosieguo occasione, anche in questa sede, di riparlare più volte.

(aldo montini – cesare pizza)

La SEDIVA e lo Studio Bacigalupo Lucidi prestano assistenza contabile, commerciale e legale alle farmacie italiane da oltre 50 anni!