L’effetto farfalla nei sistemi d’intelligenza artificiale
Un’analisi del professor Ferrara dell'Università della California indaga con particolare attenzione al riconoscimento facciale e agli algoritmi sanitari
Il battito d’ali di una farfalla in Brasile può innescare una serie di eventi tali da originare un tornado in Texas. In altre parole, piccoli cambiamenti iniziali in sistemi complessi e dinamici sono in grado di determinare risultati significativamente diversi e spesso imprevedibili nel tempo.
Coniato dal matematico e meteorologo americano Edward Lorenz nei primi anni ’60, l’effetto farfalla è un concetto fondamentale nella teoria del caos e descrive la dipendenza sensibile dalle condizioni iniziali nei sistemi dinamici non lineari. La sua importanza si estende oltre la meteorologia e ha trovato applicazioni in svariate discipline scientifiche.
Emilio Ferrara, professore di Computer Science presso la University of Southern California, ha studiato e pubblicato una ricerca su questo effetto nell’Intelligenza artificiale. La ricerca pubblicata si chiama The Butterfly Effect in artificial intelligence systems: Implications for AI bias and fairness ed è stata pubblicata nel 2024.
Distorsioni come un battito d’ali
L’effetto farfalla evidenzia quanto sia essenziale comprendere l’interconnessione dei vari componenti e le sfide associate a previsioni accurate a lungo termine. Risulta, pertanto, rilevante anche nel capire il funzionamento dei sistemi d’intelligenza artificiale (AI) e machine learning (ML).
Come spiega Ferrara, questi ultimi si configurano, infatti, come sistemi complessi e interconnessi, costituiti da molteplici componenti (dati, algoritmi e interazioni con gli utenti) che contribuiscono al processo decisionale finale. Cambiamenti o distorsioni apparentemente piccoli nelle parti che li compongono possono avere un impatto consistente e potenzialmente imprevisto sull’equità e sulla distorsione dei sistemi d’intelligenza artificiale.
Distorsioni iniziali apparentemente piccole potrebbero propagarsi e causare grandi disparità. Viceversa, distorsioni iniziali grandi potrebbero avere conseguenze meno drammatiche nelle applicazioni reali.
Quali fattori contribuiscono all’effetto farfalla nei sistemi AI?
I fattori che possono concorrere all’emergere dell’effetto farfalla sull’equità e sulla distorsione dei sistemi d’intelligenza artificiale (AI) sono molteplici.
In primo luogo, gli algoritmi di machine learning (ML) operano spesso su dati di input ad alta dimensionalità. Si basano, dunque, su una moltitudine di funzionalità per prendere decisioni.
Piccole perturbazioni nei dati di input, come la rimozione o l’aggiunta di funzionalità, possono condurre a comportamenti e previsioni del modello molto diversi.
La sensibilità ai dati di input può manifestarsi come un effetto farfalla, nel quale lievi aggiustamenti comportano conseguenze significative e indesiderate.
Molti modelli di machine learning (ML), come le Deep Neural Network, sono inoltre altamente non lineari e complessi. Queste peculiarità possono rendere difficile prevedere in che modo i cambiamenti nei dati di input o nei parametri influenzeranno le previsioni. I bias o gli errori introdotti durante il processo di training possono, dunque, propagarsi e amplificarsi, portando a risultati distorti e ingiusti.
In aggiunta, i sistemi di machine learning (ML) possono inavvertitamente creare cicli di feedback che perpetuano e amplificano i bias. Se un sistema distorto viene utilizzato per generare nuovi dati, anche questi ultimi potrebbero essere distorti, rafforzando i bias esistenti del sistema nel tempo.
I cicli di feedback possono creare un effetto farfalla, nel quale piccoli bias iniziali determinano effetti sempre più distorti man mano che il sistema itera.
Come precedentemente accennato, i sistemi d’intelligenza artificiale (AI) comprendono in genere più componenti, ciascuno capace potenzialmente di introdurre i propri pregiudizi.
Questi possono interagire e combinarsi in modi imprevedibili, causando un effetto farfalla nel quale il sistema nel suo complesso mostra un pregiudizio maggiore rispetto a qualsiasi singolo componente.
I punti di sella nel panorama delle perdite possono bloccare l’ottimizzazione, facendo convergere gli algoritmi verso soluzioni subottimali che esacerbano i problemi di equità e distorsione.
Quando i dati di test differiscono dai dati di training, i cambiamenti di distribuzione possono portare a scarse prestazioni del modello, distorsioni impreviste e risultati ingiusti.
Il tutto può innescare l’effetto farfalla sull’equità e sulla distorsione dell’intelligenza artificiale (AI), amplificando piccole discrepanze con ripercussioni consistenti e imprevedibili.
È fondamentale tenere in considerazione anche gli attacchi avversari. Sfruttando piccole perturbazioni o vulnerabilità nei modelli d’intelligenza artificiale (AI), questi possono infatti introdurre intenzionalmente sottili modifiche ai dati di input o manipolare i limiti decisionali e dar luogo a risposte notevolmente differenti e distorte. Le piccole alterazioni generate dagli attacchi avversari possono condurre a esiti sostanziali e imprevedibili in merito all’equità e alla distorsione.
Effetto farfalla nei sistemi di riconoscimento facciale
Gli algoritmi di riconoscimento facciale trovano impiego in una vasta gamma di applicazioni. Questi sistemi possono, tuttavia, presentare disparità di prestazioni tra i diversi gruppi demografici, connessi ad uno sbilanciamento dei set di dati di formazione.
Studi scientifici hanno riscontrato tassi di errore più elevati per i soggetti di pelle scura e di sesso femminile rispetto a quelli di pelle chiara e di sesso maschile. Le disparità nelle prestazioni possono essere attribuite alla sottorappresentazione di specifici gruppi demografici nei dati di addestramento. È pertanto possibile ritrovare il cosiddetto effetto farfalla nell’equità e nella parzialità dei sistemi di riconoscimento facciale.
Effetto farfalla negli algoritmi sanitari
I modelli d’intelligenza artificiale (AI) e machine learning (ML) sono sempre più utilizzati per supportare il processo decisionale in ambito sanitario, soprattutto per l’identificazione di pazienti ad alto rischio e per guidare le decisioni terapeutiche. Eventuali bias nei dati storici e nelle ipotesi del modello possono condurre a previsioni distorte, con un impatto sproporzionato sulle popolazioni minoritarie. Una recente indagine ha evidenziato l’esistenza di un pregiudizio razziale in un algoritmo commerciale, ampiamente utilizzato per prevedere le esigenze sanitarie. Nello specifico, il sistema assegnava punteggi di rischio inferiori ai pazienti neri rispetto ai pazienti bianchi con condizioni di salute simili, con conseguenti disparità nell’accesso ai programmi di gestione assistenziali.
Mitigare il “battito d’ali” nei sistemi AI
Per mitigare l’effetto farfalla sull’equità e sulla distorsione dei sistemi d’intelligenza artificiale (AI) possono essere sfruttate varie strategie, che vanno dalla raccolta e pre-elaborazione dei dati all’equità algoritmica, alla valutazione e al monitoraggio e alla robustezza avversaria.
Tali tecniche possono consentire a ricercatori e professionisti di affrontare in maniera efficace le potenziali conseguenze indesiderate derivanti da piccole modifiche nei dati di input o nella progettazione algoritmica e garantire sistemi d’intelligenza artificiale (AI) più trasparenti, responsabili ed equi.
Le sfide future
Piccoli cambiamenti, che si tratti di aggiustamenti algoritmici, input di dati o persino sottili modificazioni nella distribuzione, possono catalizzare impatti di vasta portata e imprevedibili sull’equità e sulla parzialità dei sistemi d’intelligenza artificiale (AI).
Comprenderne il ruolo può fare la differenza nel guidare i professionisti dell’intelligenza artificiale nell’analisi di ogni minima modifica nei sistemi, riconoscendo che anche quelle trascurabili possono produrre risultati sproporzionati, in particolare per i gruppi sottorappresentati.
Come scrive il professor Ferrara, è auspicabile che le analisi future si concentrino sullo sviluppo di metodologie avanzate, per rilevare, quantificare e mitigare l’effetto farfalla nei sistemi d’intelligenza artificiale (AI).
Ciò include la creazione di strumenti più sofisticati per il monitoraggio in tempo reale, assicurando equità e imparzialità durante l’intero ciclo di vita.
Anche la ricerca interdisciplinare ha un peso cruciale. È, infatti, preziosa nel fornire approfondimenti più sfumati sul modo in cui i sistemi d’intelligenza artificiale (AI) interagiscono con le strutture sociali e col comportamento umano, portando a strategie di mitigazione più efficienti.
Per di più, tali sistemi dovrebbero essere progettati con la capacità di apprendere e adattarsi continuamente, oltre a rimanere resilienti alla natura dinamica dei dati e dei contesti sociali.
L’adattabilità è un elemento fondamentale per prevenire l’amplificazione dei pregiudizi e assicurare l’equità a lungo termine nelle applicazioni.
Da ultimo, i futuri sistemi d’intelligenza artificiale (AI) dovrebbero essere sviluppati con una forte attenzione alla progettazione incentrata sull’utente, per soddisfarne al meglio le esigenze e i contesti. Un approccio di questo tipo può favorire la creazione di sistemi non solo equi ed imparziali, ma anche veramente utili e inclusivi per tutti i segmenti della società.
di Elena Pascucci
Scrivi un commento