C’è un punto che dovrebbe inquietarci più dell’entusiasmo per l’ultima generazione di intelligenza artificiale: il fatto che inizi a capovolgere – se così si può dire - l’ordine logico del mondo. E non è un’ipotesi teorica. Succede già.
Viviamo immersi nell’AI. La consultiamo per informarci, la usiamo per valutare candidati, per decidere prestiti, per orientare diagnosi, persino per analizzare profili giudiziari. Una quota crescente delle nostre scelte passa attraverso un filtro algoritmico che si presenta come neutrale. Ma cosa accade se quel filtro non rispetta la logica elementare dell’esperienza?
C’è una parola che riassume questo problema: monotonicità. La monotonicità è una proprietà logica che impone una relazione coerente tra una causa e il suo effetto: se una variabile aumenta, anche il risultato deve aumentare e viceversa. Non è un tecnicismo matematico: è una forma elementare di ordine e coerenza. Vediamo perché.
L’AI viola la monotonicità perché non ragiona per principi, ma per correlazioni: apprende dai dati alcuni pattern “locali”, cioè riservati a contesti specifici e limitati, spesso sporchi o incompleti e li generalizza senza comprendere il senso logico o morale delle relazioni. Ad esempio, sistemi che giudicano più rilevante un ritardo di pagamento vecchio rispetto a uno recente; modelli clinici che considerano una somma di sintomi lievi più predittivi di uno solo, ma grave; algoritmi educativi che penalizzano gli studenti proprio quando migliorano, perché non considerano la variabile tempo. Strumenti giudiziari che attribuiscono più peso alla pletora di reati minori che a uno molto serio.
Sono errori tecnici, certo, ma prima ancora rotture morali. Perché dove la logica si spezza, si spezza anche l’idea di equità. Un algoritmo non monotòno sbaglia non per caso: sbaglia in modo arbitrario. E l’arbitrarietà, quando decide su persone reali, diventa ingiustizia replicata.
C’è un altro punto che molti non vedono: più un’AI entra nei processi decisionali — assunzioni, credito, salute, giustizia — più una sua incoerenza logica diventa un rischio sociale sistemico. L’errore non riguarda più un dato: riguarda gli esiti sociali dell’utilizzo di quella tecnologia.
Perché accade? Perché l’AI non conosce la logica del mondo, conosce solo la logica formale e statistica dei dati, molto meno quella cognitiva. E i dati sono imperfetti, sbilanciati, “rumorosi”, cioè non ordinati per rilevanza. Da qui derivano tre distorsioni ricorrenti: rumore statistico (pattern immaginari: inventa analisi e riferimenti quando non ne sa abbastanza), effetti marginali decrescenti (differenze decisive che scompaiono), correlazioni spurie (dettagli irrilevanti che sembrano cruciali).
Insomma: la macchina non vede ciò che noi chiamiamo “gravità”, “coerenza”, “proporzione”.
E rischia di costruire un mondo paradossale: dove il più colpevole è trattato meglio del meno colpevole; il più malato sembra più sano del meno malato; il merito è scambiato per rumore e non emerge come elemento preferenziale o necessario.
Si tratta di un problema di AI Alignment, l’allineamento dei modelli generativi ai valori umani e alla logica del mondo (sempre si possiamo dir così)... Un algoritmo può essere sofisticatissimo, ma se non rispetta il principio intuitivo della monotonicità è disallineato non solo all’etica, ma alla realtà.
La tecnologia, da sola, non ha una direzione. La direzione dobbiamo dargliela noi. Imporre monotonicità significa costruire un telaio morale dentro i modelli: tradurre in forma matematica ciò che la società democratica dà per scontato — proporzione, continuità, coerenza del giudizio. Non è una limitazione. È la condizione della legittimità. Perché un sistema che decide non deve solo essere accurato: deve essere giusto. E la giustizia, prima di tutto, è coerenza.
La vera minaccia non è che l’AI diventi troppo potente. La vera minaccia è che diventi profondamente irragionevole — e che noi, sedotti a ragione dalla sua brillantezza, non vediamo le inversioni logiche, perché ignoriamo come funziona, o perché le riteniamo inevitabili, o senza conseguenze. Per evitarlo, serve ricordare un principio semplice, antico, essenziale: l’ordine logico e morale delle cose non può essere capovolto. E quel principio, oggi, si chiama monotonicità.
Non è tecnica. È etica. È democrazia. È ciò che dà direzione, e senso, alle nostre decisioni, anche se supportate dall’intelligenza artificiale. Occorre passare da analisi generali, onnicomprensive, astratte sull’intelligenza artificiale a una comprensione più profonda di questa tecnologia: capire come funziona; come rendere evidente la sua logica e quali cambiamenti pretendere prima che i suoi risultati siano percepiti come indiscutibili e indiscussi.
Economista. Docente all’Università di Firenze. Master in Economia dello Sviluppo, Laurea in Scienze Economiche e Sociali. E’ cresciuto al Censis, responsabile di Sociometrica, è consulente strategico.