top of page

🤖 La Sindrome dell’Oracolo di Delfi: quando gli algoritmi iniziano a plasmare il consenso nell’ADR

di Pierfrancesco C. Fasano

Introduzione

Il dibattito contemporaneo sull’intelligenza artificiale applicata al diritto si è sviluppato prevalentemente attorno alla giurisdizione statale, alla predictive justice e ai sistemi algoritmici di supporto alla decisione giudiziale. Tuttavia, i medesimi problemi epistemologici emergono oggi, in forma per molti aspetti ancora più intensa, nell’universo delle Alternative Dispute Resolution (ADR), dove l’assenza di un controllo pubblico strutturato, la centralità della confidenzialità e la crescente privatizzazione tecnologica dei processi decisionali rendono meno visibili — e quindi più difficili da contestare — le distorsioni introdotte dalla mediazione algoritmica.


L’intelligenza artificiale nell’ADR non opera soltanto come strumento di automazione amministrativa o di efficientamento procedurale. Essa tende progressivamente a diventare un’infrastruttura epistemica del conflitto: contribuisce a definire quali pretese appaiano ragionevoli, quali precedenti risultino rilevanti, quali esiti vengano percepiti come probabili, quali soluzioni siano considerate equilibrate o economicamente efficienti.


In altre parole, l’algoritmo non si limita a gestire la controversia: contribuisce a costruire il quadro cognitivo entro cui le parti comprendono il conflitto stesso.


Questa trasformazione assume caratteristiche differenti a seconda della natura della procedura ADR coinvolta — mediativa, aggiudicativa o ibrida — ma presenta una matrice comune: la progressiva sostituzione della razionalità argomentativa con logiche statistiche, predittive e classificatorie.

Mediazione: dalla facilitazione umana alla conformazione algoritmica del consenso

La mediazione rappresenta probabilmente il terreno più delicato.


Tradizionalmente, la mediazione si fonda su:


  • ascolto;

  • riconoscimento reciproco;

  • gestione relazionale del conflitto;

  • esplorazione creativa degli interessi;

  • costruzione progressiva del consenso.


L’intelligenza artificiale tende invece a privilegiare:


  • ricorrenze statistiche;

  • benchmarking economico;

  • comparazione di dataset;

  • identificazione di pattern negoziali;

  • probabilità di settlement.


Sempre più piattaforme ODR e strumenti di AI-assisted mediation utilizzano sistemi capaci di:


  • stimare la “zona probabile di accordo”;

  • suggerire range economici;

  • prevedere la probabilità di successo in giudizio;

  • classificare le strategie negoziali più efficaci;

  • individuare clausole conciliative standardizzate.


Questi strumenti possono certamente migliorare:


  • tempi;

  • costi;

  • prevedibilità;

  • accessibilità della procedura.


Ma introducono anche un rischio strutturale: la trasformazione del consenso in conformità statistica.


Se le parti vengono costantemente esposte a:


  • benchmark algoritmici;

  • percentuali di successo;

  • valori medi di transazione;

  • “soluzioni consigliate”;


la libertà negoziale rischia progressivamente di ridursi entro un perimetro cognitivo costruito dall’algoritmo.


L’accordo non emerge più esclusivamente dal dialogo tra le parti, ma anche dalla pressione implicita esercitata dalla razionalità predittiva del sistema.


Nel lungo periodo, il mediatore stesso potrebbe essere indotto — spesso inconsapevolmente — ad assumere come “ragionevoli” le soluzioni statisticamente più frequenti.


L’autonomia della mediazione viene così lentamente sostituita dalla standardizzazione del conflitto.

Arbitrato: predictive arbitration e gerarchizzazione algoritmica dei precedenti

Nel contesto arbitrale, l’intelligenza artificiale opera prevalentemente attraverso:


  • legal analytics;

  • predictive arbitration;

  • ricerca intelligente dei precedenti;

  • analisi comparativa dei lodi;

  • profiling decisionale degli arbitri.


Le grandi piattaforme internazionali consentono già oggi di:


  • analizzare orientamenti arbitrali;

  • stimare tempi medi;

  • prevedere probabilità di accoglimento;

  • valutare tendenze interpretative di singoli arbitri o istituzioni;

  • ricostruire network citazionali tra lodi e decisioni.


Il problema epistemico è particolarmente evidente nei sistemi arbitrali caratterizzati da:


  • ampia confidenzialità;

  • limitata pubblicazione dei lodi;

  • forte peso reputazionale degli arbitri;

  • concentrazione dei dati nelle mani di pochi operatori.


In questo scenario, chi controlla il dataset controlla progressivamente anche la prevedibilità del diritto arbitrale.


Si determina così un fenomeno di autorinforzo algoritmico:


  • i lodi più accessibili diventano più citati;

  • quelli più citati diventano più rilevanti;

  • quelli più rilevanti alimentano ulteriori correlazioni statistiche;

  • le soluzioni minoritarie o innovative vengono marginalizzate.


Il rischio è la nascita di una “nomofilachia privata algoritmica” priva delle garanzie costituzionali proprie della giurisdizione statale.


Nel settore IP e tecnologico, ad esempio, piattaforme di analytics potrebbero progressivamente orientare:


  • interpretazioni FRAND;

  • quantificazione dei danni;

  • valutazioni SEP;

  • strategie processuali UPC/PMAC;

  • probabilità di injunctive relief.


La conseguenza non sarebbe soltanto tecnica ma sistemica: l’algoritmo inizierebbe a influenzare la stessa evoluzione della lex mercatoria arbitrale.

Expert Determination: l’illusione dell’oggettività tecnica

L’expert determination rappresenta uno degli ambiti più esposti alla naturalizzazione algoritmica.


Poiché la procedura si fonda su valutazioni tecniche specialistiche:


  • royalty;

  • valuation;

  • qualità industriale;

  • performance contrattuali;

  • compliance tecnica;

  • valutazioni scientifiche;


l’output algoritmico tende facilmente ad apparire come neutrale e scientificamente inevitabile.


In realtà, anche gli algoritmi tecnici incorporano:


  • criteri selettivi;

  • pesi decisionali;

  • priorità metodologiche;

  • modelli economici;

  • presupposti normativi impliciti.


Un sistema AI utilizzato per determinare:


  • una royalty SEP;

  • il valore di un asset IP;

  • il danno reputazionale;

  • la conformità di un software;


non produce una semplice misurazione oggettiva.


Produce una costruzione normativa travestita da calcolo tecnico.


Il rischio epistemologico consiste proprio nella trasformazione di scelte metodologiche contestabili in risultati percepiti come inevitabili.


Nel mondo dell’expert determination, l’algoritmo rischia quindi di sostituire il confronto tecnico con la deferenza automatica verso il dato computazionale.

Early Neutral Evaluation: la predizione come pressione cognitiva

L’early neutral evaluation (ENE) costituisce forse il punto di contatto più diretto tra ADR e predictive justice.


La procedura nasce per offrire alle parti:


  1. una valutazione preliminare;

  2. un’analisi neutrale delle probabilità di successo;

  3. una stima del rischio processuale;

un orientamento realistico alla negoziazione.


L’intelligenza artificiale rende oggi possibile:


  1. automatizzare analisi comparative;

  2. stimare outcomes probabilistici;

  3. valutare strategie difensive;

  4. simulare scenari decisionali.


Ma proprio qui emerge il rischio più profondo:

la previsione tende psicologicamente a trasformarsi in prescrizione.


Quando un sistema:


  • attribuisce un 78% di probabilità di soccombenza;

  • suggerisce un range economico “ottimale”;

  • indica precedenti statisticamente dominanti;


le parti tendono naturalmente ad adeguare il proprio comportamento.


La neutral evaluation rischia così di diventare una forma di conformazione algoritmica del conflitto.


La funzione epistemica della previsione modifica direttamente la libertà negoziale.

Dispute sui Nomi a Dominio: algoritmi e standardizzazione della bad faith

Le dispute sui nomi a dominio rappresentano un laboratorio particolarmente avanzato di AI applicata all’ADR.


Procedure come:


  • UDRP;

  • URS;

  • dispute ccTLD;

  • procedure ADR nazionali;


si fondano già oggi su:


  • ricerca automatizzata di precedenti;

  • classificazione di pattern cybersquatting;

  • analisi semantica dei domini;

  • identificazione di marchi notori;

  • rilevazione automatica della bad faith.


L’intelligenza artificiale può:


  • individuare cluster di registrazioni sospette;

  • identificare comportamenti seriali;

  • analizzare strutture linguistiche;

  • correlare dati WHOIS e DNS;

  • suggerire precedenti rilevanti agli examiner.


Ma il rischio consiste nella progressiva automatizzazione della nozione stessa di malafede.


La bad faith, nella tradizione UDRP e URS, è una categoria argomentativa e contestuale.


Un algoritmo, invece, tende a:


  • trasformarla in pattern;

  • standardizzare indicatori;

  • privilegiare correlazioni statistiche;

  • penalizzare casi atipici.


Nel lungo periodo, il cybersquatting potrebbe essere interpretato non più attraverso una valutazione argomentativa delle circostanze concrete, ma tramite modelli probabilistici costruiti su dataset storici.


La controversia sui domini rischierebbe così di trasformarsi in una procedura semi-automatizzata di classificazione reputazionale.

Digital Services Act e art. 21: AI e risoluzione extragiudiziale delle controversie online

Le procedure di risoluzione delle controversie previste dall’art. 21 del Unione Europea Digital Services Act costituiscono probabilmente il contesto più avanzato (e potenzialmente più problematico) della mediazione algoritmica contemporanea.


Gli organismi certificati DSA operano in un ecosistema già profondamente mediato dagli algoritmi delle piattaforme:


  • ranking;

  • moderation;

  • recommender systems;

  • content removal;

  • demonetizzazione;

  • suspension systems.


Le controversie ex art. 21 DSA nascono quindi già all’interno di una realtà epistemicamente costruita dagli algoritmi.


L’organismo ADR rischia a sua volta di utilizzare:


  • AI per la classificazione dei reclami;

  • sistemi automatici di triage;

  • clustering delle decisioni;

  • suggerimenti standardizzati;

  • benchmarking decisionale.


Si crea così una doppia mediazione algoritmica:


  • quella della piattaforma;

  • quella della procedura ADR.


Il rischio sistemico è enorme: la definizione stessa di contenuto “illecito”, “dannoso”, “disinformativo” o “manipolativo” potrebbe progressivamente consolidarsi attraverso correlazioni statistiche, anziché mediante autentico una verifica argomentativa.


Nel contesto DSA, la governance dell’AI nell’ADR non è quindi soltanto questione procedurale.


È una questione democratica.

La necessità di una governance epistemica dell’AI nell’ADR

L’ADR è storicamente nato come spazio:


  • flessibile;

  • consensuale;

  • relazionale;

  • pragmatico;

  • adattabile.


Ma proprio queste caratteristiche rischiano oggi di renderlo particolarmente vulnerabile alla naturalizzazione algoritmica.


L’assenza di:


  • obblighi pubblici di motivazione;

  • pubblicità sistematica;

  • controlli nomofilattici;

  • trasparenza dei dataset;

  • audit indipendenti;


favorisce la trasformazione silenziosa della razionalità giuridica in razionalità statistica.


Per questo motivo, il futuro dell’ADR europeo richiederà probabilmente:


  • registri pubblici di trasparenza algoritmica;

  • disclosure obbligatorie sull’uso di AI;

  • audit indipendenti dei sistemi predittivi;

  • supervisione umana effettiva con adeguata competenza e/o esperienza;

  • diritti di contestazione degli output algoritmici;

  • standard etici europei per AI-assisted ADR.


Il problema non è impedire l’uso dell’intelligenza artificiale.


Il problema è evitare che la soluzione del conflitto venga progressivamente ridefinita da sistemi opachi che trasformano la probabilità statistica in verità giuridica e la convergenza computazionale in consenso autentico.

Commenti

Valutazione 0 stelle su 5.
Non ci sono ancora valutazioni

Aggiungi una valutazione
  • Whatsapp
  • Google Places
  • LinkedIn
  • X
  • Youtube

© 2001 - 2026 MFSD srl - P. Iva 04810100968

bottom of page