
IA GENERATIVA E MEDIAZIONE: NUOVI OBBLIGHI PER L’AVVOCATO TRA ETICA, RISERVATEZZA E IMPARZIALITÀ
- MFSD IP ADR CENTER AND ACADEMY
- 5 giorni fa
- Tempo di lettura: 4 min
di Pierfrancesco C. Fasano
Introduzione: l’AI entra anche nella mediazione
Se la GenAI sta trasformando la professione forense, il suo impatto è ancora più delicato quando l’avvocato la utilizza come mediatore o come rappresentante della parte in un procedimento di mediazione.
Il CCBE - il Consiglio degli Ordini Forensi d’Europa - non affronta direttamente questo scenario in una Guida all’Uso dell Intelligenza Artificiale Generativa per gli Avvocati datata 2 ottobre 2025, ma i suoi principi — riservatezza, indipendenza, competenza, trasparenza — assumono in mediazione una portata addirittura più stringente per la natura fiduciaria, informale e confidenziale dell’istituto.
L’uso dell’AI non è vietato, ma richiede un approccio più prudente, consapevole e regolato.
1. AI in mediazione: uno spazio ad alto rischio deontologico
La mediazione introduce due condizioni giuridiche particolari che amplificano le problematiche etiche dell’AI:
• Riservatezza rafforzata
Gli atti, le dichiarazioni, le proposte e le informazioni condivise in mediazione godono di inviolabilità e non utilizzabilità.
Qualsiasi utilizzo di GenAI per:
• riassumere sessioni,
• analizzare documenti riservati,
• preparare “proposte generative”,
rischia di trasformare un’informazione coperta da segreto in un dato processato da un modello che può conservarlo, usarlo per retraining o esporlo a terzi.
In mediazione, quindi, i prompt non possono contenere alcun elemento identificativo del caso, della parte o della controparte, a meno dell’uso di strumenti garantiti, localizzati, con zero retention certificato.
• Ambiente non avversariale, ma collaborativo
La GenAI tende a:
• ricostruire narrazioni in modo lineare,
• amplificare bias tra le parti,
• proporre soluzioni “ottimali” anche quando non realistiche o accettabili.
In un contesto negoziale, ciò può influenzare in modo improprio la percezione delle alternative, alterando l’equilibrio informativo che il mediatore deve preservare con massima neutralità.
2. L’avvocato che rappresenta la parte: rischi, doveri e limiti
2.1. Competenza e verifica degli output
Come richiesto dal CCBE, l’avvocato deve verificare ogni output della GenAI.
In mediazione questo si traduce in un obbligo rafforzato:
• l’avvocato non può presentare una proposta generata dall’AI senza averla filtrata, verificata e riformulata;
• non può utilizzare analisi sull’andamento del negoziato basate su pattern emotivi o linguistici generati dal modello, perché rischiano di indurre valutazioni manipolate o errate.
2.2. Trasparenza verso il cliente
Il cliente deve essere informato se:
• l’avvocato utilizza GenAI per preparare memorandum,
• impiega strumenti di predictive analytics sulla possibile soluzione,
• affida a sistemi automativi la redazione di bozze di accordo.
Perché?
Perché l’AI può modificare quale accordo il cliente ritiene accettabile.
E questo incide direttamente sul principio di buona consulenza.
2.3. Conflitti di interesse
Nei sistemi cloud di larga scala, i dati di una mediazione potrebbero essere utilizzati — anche inconsapevolmente — per affinare modelli basati su dataset che includono:
• casi di altri clienti,
• controparti assistite dallo stesso avvocato,
• oppure casi trattati dal mediatore in altra sessione.
Il rischio di intersezione informativa è enormemente più elevato in mediazione rispetto a un processo giudiziario.
3. L’avvocato mediatore: l’AI è quasi sempre incompatibile con l’imparzialità
3.1. Indipendenza e neutralità a rischio
Secondo i principi CCBE, un mediatore deve mantenere:
• indipendenza,
• equidistanza,
• assenza di influenza da strumenti esterni.
Usare GenAI per:
• formulare ipotesi conciliative,
• creare opzioni multiple di accordo,
• analizzare la BATNA/WATNA delle parti,
rischia di:
• introdurre bias del modello,
• creare una simmetria informativa non controllabile,
• far percepire alle parti che l’accordo proposto non sia “del mediatore”, ma del software.
3.2. Il rischio di “automated mediation” involontaria
Anche quando il mediatore utilizza l’AI solo come strumento personale di analisi, il sistema può influenzare il suo giudizio, creando quello che il CCBE definisce “automation complacency”.
Un mediatore condizionato da un algoritmo non è più neutrale.
3.3. Riservatezza del mediatore
Il mediatore detiene informazioni asimmetriche tra le parti.
Inserirle in un modello GenAI — anche in forma anonima — può violare:
• l’art. 9 d.lgs. 28/2010 sulla riservatezza,
• il principio UE sull’imparzialità del terzo,
• gli standard internazionali (UNCITRAL, ICC, CEDR).
4. Buone prassi per avvocati e mediatori che usano la GenAI
Per l’avvocato difensore
• usare GenAI solo per atti non riservati e non identificativi;
• evitare l’inserimento di dati delle sessioni;
• trasformare i documenti riservati in “abstract non sensibili” prima del prompt;
• verificare e riformulare integralmente ogni proposta generata dall’AI;
• informare il cliente quando l’AI viene usata.
Per il mediatore
• non usare GenAI per valutare né proporre soluzioni;
• non utilizzare strumenti GenAI connessi a cloud pubblici;
• non introdurre nel processo valutazioni provenienti da modelli esterni;
• utilizzare esclusivamente strumenti locali, offline, con zero-retention garantita;
• indicare nel proprio regolamento di mediazione l’eventuale uso tecnico dell’AI (es. per la sola gestione documentale).
Conclusioni: AI sì, ma la mediazione rimane “umana”
La GenAI può supportare l’avvocato nel preparare strategie e documenti, ma non può sostituire la sensibilità, la neutralità e l’etica che la mediazione richiede.
Per il mediatore, l’AI è più un rischio che un aiuto: il suo uso deve essere eccezionale, circoscritto e tecnicamente controllato.
Per l’avvocato difensore, l’AI è ammissibile, ma entro confini molto rigidi: nessun dato riservato nei prompt, output verificati, trasparenza verso il cliente e preservazione del rapporto fiduciario.
In mediazione, più che altrove, l’AI è uno strumento: mai un decisore, mai un consigliere, mai un terzo.




Commenti