Per anni l’intelligenza artificiale è stata associata all’automazione di processi aziendali, alla generazione di immagini o alla scrittura di codice; ora il confine si sposta verso la sfera della salute pubblica. In uno sviluppo che ha attirato attenzione nazionale, lo Utah ha autorizzato un programma pilota che consente a un sistema di IA di occuparsi in autonomia del rinnovo di prescrizioni per determinate terapie croniche. L’iniziativa si svolge all’interno di un regulatory sandbox promosso dall’Office of Artificial Intelligence Policy, un ente nato nel 2026 con l’obiettivo di rendere lo stato un hub per soluzioni tecnologiche in campo sanitario.
Il progetto, coordinato dalla startup Doctronic, durerà dodici mesi e si concentra sul rinnovo di circa 190 farmaci destinati a pazienti con patologie croniche, escludendo per motivi di sicurezza gli oppioidi, i farmaci iniettabili e i trattamenti per l’ADHD.
L’obiettivo dichiarato è ridurre i costi (stimati in 4 dollari a rinnovo) e combattere la non aderenza alle terapie, problema segnalato come responsabile di circa 125.000 decessi evitabili ogni anno negli Stati Uniti. Dietro Doctronic ci sono il chirurgo vascolare Adam Oskowitz e il CEO Matt Pavelle, e l’azienda vanta finanziamenti superiori a 65 milioni di dollari e un dataset di 15 milioni di consultazioni.
Come funziona il sistema e quali limiti ha
Il cuore dell’operazione è un algoritmo progettato per eseguire controlli multipli in pochi secondi: verifica le interazioni farmacologiche, controlla le controindicazioni e confronta i parametri clinici disponibili con linee guida standard. Pur mostrando una capacità di elaborazione molto più rapida rispetto al singolo professionista, il sistema non è autorizzato a formulare nuove diagnosi e opera entro protocolli predefiniti.
L’intento è che il modello riduca ritardi burocratici e dimenticanze che spesso impediscono il proseguimento regolare delle terapie. Resta però aperta la questione della qualità del giudizio clinico, che tradizionalmente incorpora valutazioni contestuali e fattori non sempre codificabili.
Performance dichiarate
Secondo i dati presentati ai regolatori, l’IA ha raggiunto un allineamento del 99,2% con le scelte di medici umani su un campione di 500 casi, una statistica che Doctronic sottolinea come prova di affidabilità. L’azienda sostiene inoltre di aver addestrato il sistema su un dataset di 15 milioni di consultazioni, elemento che conferirebbe al modello una solida base di riferimento clinico. Nonostante questi numeri rassicuranti, numerosi professionisti osservano che i test di laboratorio non sempre riflettono la complessità delle situazioni reali, e che l’efficacia a lungo termine va valutata durante l’uso su ampia scala.
Rischi di cybersecurity e casi di vulnerabilità
Un punto critico emerso nelle settimane precedenti riguarda la sicurezza informatica: la società di cyber security Mindgard ha dimostrato la possibilità di manipolare un chatbot pubblico collegato a Doctronic mediante tecniche di prompt injection. In un esperimento è stato creato un falso bollettino normativo che ha indotto il modello a suggerire la triplicazione della dose di OxyContin, un analgesico potente. Sebbene Doctronic abbia chiarito che il sistema impiegato nel programa pilota è isolato e sottoposto a misure di protezione più stringenti rispetto al chatbot pubblico, la dimostrazione ha acceso un dibattito sulla robustezza delle difese e sulla possibilità che input malevoli possano compromettere decisioni cliniche.
Implicazioni pratiche
La vulnerabilità ai manipoli di input solleva interrogativi su come progettare sistemi a prova di errore e su quali livelli di segregazione e monitoraggio siano necessari.
È fondamentale implementare controlli di integrità dei dati, log di audit e sistemi di allerta che segnalino anomalie nel comportamento dell’algoritmo. Inoltre, per mitigare rischi residui, sono richieste politiche chiare di accesso e protocolli di risposta rapida in caso di compromissione, strumenti che devono essere costantemente aggiornati per stare al passo con nuove tecniche di attacco.
Responsabilità medica e scenari futuri
La reazione della comunità clinica è stata immediata e critica: l’American Medical Association ha espresso preoccupazioni significative, in particolare sul tema della supervisione clinica e della responsabilità legale. Un dubbio centrale riguarda chi sarà ritenuto responsabile qualora un errore dell’IA provochi danno al paziente, soprattutto se il sistema arrivasse a gestire in autonomia una larga parte dei rinnovi con controlli soltanto a campione. La questione della accountability richiede quindi regole giuridiche e contrattuali ben definite prima di qualsiasi estensione del modello.
Al di là dello Utah, Stati come Arizona e Texas osservano con attenzione e stanno valutando l’introduzione di propri sandbox regolatori, pronti a replicare o adattare il progetto. Se i risultati del test annuale saranno positivi sul piano dell’efficacia e della sicurezza, si potrebbe assistere a un cambiamento strutturale: il medico tradizionale potrebbe assumere progressivamente un ruolo di supervisore di sistemi algoritmici piuttosto che di unico firmatario delle prescrizioni. Perché questo avvenga in modo responsabile è però indispensabile un equilibrio tra innovazione, investimenti in sicurezza e chiarezza normativa sulla responsabilità, accompagnati da monitoraggio continuo e trasparenza verso i pazienti.

