L’intelligenza artificiale (“IA”) è ormai divenuta una componente essenziale della società contemporanea. Sebbene il suo utilizzo sia talvolta oggetto di critiche e vi siano timori che, in futuro, l’IA possa sostituire l’essere umano in alcune attività, è innegabile che questa tecnologia emergente contribuisca a migliorare l’efficienza del lavoro quotidiano e a semplificare numerosi processi. Coloro che scelgono di non avvalersene rischiano di trovarsi in una posizione di svantaggio, soprattutto alla luce del rapido progresso in questo ambito, che rende sempre più urgente l’elaborazione di una regolamentazione adeguata al suo impiego. L’impiego di strumenti basati sull’IA nel contesto legale presenta numerosi vantaggi, ma comporta anche sfide significative. Tale affermazione risulta valida anche nell’ambito dell’arbitrato internazionale. Nel prosieguo, si esamineranno i principali ambiti di applicazione dell’IA nei procedimenti arbitrali (paragrafo 1). Seguirà un’analisi delle sfide connesse all’adozione di tali tecnologie in questo specifico contesto (paragrafo 2). Si accennerà brevemente ad alcuni regolamenti istituzionali che toccano il tema dell’intelligenza artificiale (paragrafo 3). Infine, saranno proposte alcune conclusioni in merito a questa tematica (paragrafo 4).
- Potenziali modalità d’utilizzo dell’intelligenza artificiale nell’arbitrato
Nell’ambito dell’arbitrato internazionale, l’impiego dell’IA può rivelarsi di grande utilità. L’IA consente, infatti, l’automazione di numerose attività legali, contribuendo a ridurre il carico di lavoro di avvocati e arbitri e migliorando l’efficienza complessiva dei procedimenti arbitrali. Tale tecnologia può supportare gli operatori del settore arbitrale in tutte le fasi del procedimento, dall’inizio alla sua conclusione. Tra le varie applicazioni, l’IA si distingue per la sua capacità di analizzare ampi volumi documentali, agevolando sia la revisione che l’accertamento dei fatti, oltre a rendere più efficiente la fase di produzione dei documenti. Ad esempio, mediante l’IA, è possibile generare cronologie in tempi estremamente ridotti, identificare con precisione documenti appartenenti a categorie specifiche e oscurare informazioni sensibili con maggiore rapidità ed efficacia.[1] Grazie all’IA, è possibile inoltre accelerare e rendere più accurata la ricerca legale, permettendo ai professionisti di accedere rapidamente a giurisprudenza rilevante e a precedenti. Inoltre, l’IA può fornire traduzioni automatiche di alta qualità, semplificando la comunicazione in arbitrati internazionali e riducendo i costi per le traduzioni di allegati. Inoltre, è stato dimostrato come la creazione di documenti standard, come ordini procedurali, calendari procedurali o “redfern schedule”, può essere gestita rapidamente da strumenti basati sull’IA.[2] L’IA può essere altresì utilizzata per analizzare i profili degli arbitri e aiutare le parti a selezionare i candidati più adeguati in base a criteri oggettivi e personalizzati.[3] Oltre agli aspetti già evidenziati, i sistemi di IA offrono un contributo significativo anche nell’ambito dell’analisi predittiva, mettendo a disposizione di parti e consulenti strumenti avanzati per stimare, in via preliminare, le probabilità di successo di una causa o di un’azione legale.[4] Ad esempio, diverse piattaforme sul “mercato” sfruttano ampie banche dati giurisprudenziali con l’obiettivo di fornire informazioni dettagliate su tribunali, giudici, avvocati e controparti, dichiarando di poter anticipare comportamenti e risultati sulla base di differenti strategie legali.[5] Questi strumenti risulterebbero utili non solo nella fase preparatoria del procedimento arbitrale, ma anche nella previsione degli esiti, attraverso l’analisi di trend consolidati e modelli statistici elaborati.[6] Secondo alcuni, tali strumenti potrebbero persino supportare gli arbitri nella previsione di sviluppi futuri relativi a un lodo arbitrale, come la probabilità che esso venga annullato, non eseguito o liberamente eseguito.[7] Ciò consentirebbe agli arbitri di redigere decisioni che, basandosi su dati storici e modelli predittivi, risultino più stabili nel tempo[8]. Infine, l’IA potrebbe evolversi fino a coadiuvare gli arbitri nella preparazione del processo decisionale, in particolare in controversie caratterizzate da elevata complessità. Questa applicazione è già una realtà nel contenzioso ordinario e nei procedimenti di “class action”.[9] Non si può dunque escludere che sistemi simili possano essere adottati anche nell’ambito dell’arbitrato internazionale in tempi relativamente brevi (vedi però il # 2.4 sotto per le possibili problematiche emergenti in tale area).
- Le sfide emergenti
Sebbene i benefici sopra menzionati dell’intelligenza artificiale siano indiscutibili, è essenziale non sottovalutare i potenziali rischi legati al suo utilizzo nell’ambito dell’arbitrato internazionale. In seguito, verranno esaminate le principali problematiche che possono emergere in questo contesto. 2.1 Elaborazione e addestramento di dati: il problema della “black box” e dei “bias” Il problema della “black box” nell’IA si riferisce alla mancanza di trasparenza nel modo in cui i sistemi di IA, in particolare quelli che utilizzano algoritmi complessi come il deep learning, prendono le decisioni.[10] Questa opacità rende difficile comprendere, interpretare e fidarsi dei risultati generati dai sistemi di IA. Se applicato al campo legale, questo problema solleva considerazioni etiche significative, in particolare per quanto riguarda la riproduzione di elementi di discriminazione (che possono essere definiti come “bias”). L’IA si basa infatti sui dati immessi nel sistema.[11] I sistemi di IA vengono addestrati su informazioni che possono contenere dati distorti o non rappresentativi.[12] Se questi dati non vengono identificati e corretti, l’algoritmo che è stato addestrato con tali dati può perpetuare e persino esacerbare determinati pregiudizi portando a risultati non corretti.[13] Il rischio di perpetuazione degli stereotipi può concretizzarsi, ad esempio, quando si utilizzano strumenti di IA per la selezione degli arbitri, qualora questi si fondino su probabilità statistiche derivanti dai dati disponibili, soprattutto riguardo alla composizione predominante dei tribunali arbitrali nella prassi.[14] 2.2 Dati obsoleti e “allucinazioni” L’IA richiede poi l’accesso a dati aggiornati e rilevanti per funzionare correttamente. Se il sistema viene alimentato con dati obsoleti, c’è il rischio che le analisi e le raccomandazioni fornite risultino fuori contesto o non più valide per le situazioni attuali. A tal riguardo, un’ulteriore sfida che si presenta è rappresentata dalle possibili “allucinazioni” generate dall’IA.[15] Queste si verificano quando i sistemi di IA producono risposte inaccurate o fuorvianti, basate su dati inesistenti o errati.[16] Un caso emblematico si è verificato durante un procedimento legale negli Stati Uniti, in cui un collegio difensivo ha utilizzato un sistema di intelligenza artificiale per reperire precedenti giuridici da presentare in udienza. Solo durante il corso della causa, il giudice ha rilevato che quei casi non erano effettivamente esistenti.[17] Un episodio emblematico si è verificato all’inizio del 2025 in Norvegia, dove un avvocato ha presentato in giudizio fonti fittizie generate da un sistema di intelligenza artificiale. L’incidente ha spinto la Corte Suprema norvegese ad aggiornare le proprie linee guida, introducendo un nuovo articolo specificamente dedicato alla regolamentazione dell’uso dell’IA nei procedimenti giudiziari. [18] Questo caso ha evidenziato in modo significativo i rischi legati all’impiego di tali tecnologie ed in particolare la tendenza di alcuni sistemi a produrre contenuti imprecisi, fuorvianti o completamente inventati. Pertanto, nel contesto dell’arbitrato, non si può ignorare la possibilità che l’impiego di strumenti basati sull’intelligenza artificiale possa portare al deposito di atti contenenti errori, o a valutazioni imprecise, qualora la gestione dei dati sottostanti non sia adeguata.[19] È pertanto fondamentale che gli avvocati e gli arbitri adottino un approccio critico nei confronti delle tecnologie IA, assicurandosi, attraverso un’accurata supervisione, che le informazioni impiegate siano precise, verificabili e affidabili.[20] 2.3 Obbligo di segreto professionale, confidenzialità dei dati Oltre a quanto già menzionato, è necessario considerare un’ulteriore circostanza legata al fatto che i legali sono tenuti a osservare rigorosamente il segreto professionale.[21] In un’epoca sempre più digitalizzata, caratterizzata dall’ampio utilizzo di strumenti di intelligenza artificiale, i dati relativi a determinati procedimenti rischiano di non essere completamente “protetti” quando vengono condivisi con i fornitori di soluzioni di IA. La possibilità tecnica per tali fornitori di accedere ai dati legali infatti può portare a violazioni della riservatezza e all’uso improprio delle informazioni dei clienti.[22] Le piattaforme legali online e i fornitori di IA, inoltre, spesso non forniscono informazioni chiare sulla loro capacità di riutilizzare i dati conservati, sollevando preoccupazioni riguardo alla profilazione e al riutilizzo dei dati, anche quando questi vengono anonimizzati.[23] I dati legali, come decisioni giudiziarie o contratti in formato “full-text”, sono poi particolarmente difficili da anonimizzare in modo efficace. Le informazioni contestuali possono, infatti, ancora permettere di identificare i clienti o le entità coinvolte, nonostante la rimozione di nomi e località.[24] Alla luce di quanto esposto, per coloro che intendano impiegare strumenti di intelligenza artificiale nell’ambito di un procedimento arbitrale (sia avvocati per l’ausilio nella redazione delle memorie, sia arbitri per supporto nelle attività di gestione della causa) è fondamentale selezionare con attenzione i fornitori di servizi IA. Questo per garantire che i loro servizi rispettino la riservatezza e proteggano adeguatamente i dati, evitando compromissioni del segreto professionale.[25] 2.4 Rischi legati al processo decisionale automatizzato Infine, per concludere la “carrellata” di criticità dell’utilizzo dell’IA nei procedimenti arbitrali, valuteremo di seguito i rischi legati al possibile utilizzo dell’IA da parte degli arbitri nel processo decisionale. Abbiamo già visto sopra che tale possibilità potrà essere ampiamente sviluppata in futuro. D’altra parte, è imprescindibile considerare che l’attività dell’arbitro deve essere condotta nel rispetto di specifici standard etici, quali l’indipendenza, l’imparzialità, la competenza e il dovere di garantire l’esecutività dei lodi.[26] L’uso improprio degli strumenti basati sull’intelligenza artificiale da parte degli arbitri a fini di assistenza nel loro processo decisionale potrebbe compromettere tali principi, fornendo potenziali motivi per impugnare un lodo.[27] A riguardo, un primo aspetto fondamentale riguarda la natura intuitu personae del mandato arbitrale, che richiede lo svolgimento diretto delle funzioni assegnate.[28] Qualora vi sia una delega, come avviene ad esempio con l’utilizzo di segretari del tribunale, tale circostanza deve essere comunicata previamente alle parti.[29] Pertanto, si è sollevata una critica legittima sull’opportunità per l’arbitro di delegare attività connesse alla propria funzione decisionale a un sistema o software di IA.[30] Ulteriormente, si pone il quesito circa la possibilità di delegare in parte o totalmente il processo decisionale a un programma di IA. In base al diritto francese, ad esempio, solo una persona fisica con piena capacità legale può ricoprire il ruolo di arbitro.[31] Analogamente, secondo l’ordinamento italiano, “[n]on può essere arbitro chi è privo, in tutto o in parte, della capacità legale di agire“.[32] Un precedente giurisprudenziale nel contesto della registrazione di brevetti assistiti dall’IA ha stabilito che i modelli di IA non possono essere considerati persone fisiche.[33] Di conseguenza, una delega delle funzioni giudicanti a un programma IA potrebbe violare questo requisito[34] e condurre all’impugnazione del lodo.[35] A tale riguardo, si può altresì notare che la Convenzione di New York, che disciplina l’esecuzione dei lodi arbitrali in molte giurisdizioni, prevede all’articolo V la possibilità di rifiutare l’esecuzione di un lodo qualora la procedura arbitrale non sia stata condotta in conformità con l’accordo tra le parti o con la legge del paese in cui si è svolto l’arbitrato. Pertanto, l’utilizzo di IA nel processo decisionale senza il consenso delle parti o in violazione delle normative applicabili potrebbe costituire un valido motivo di contestazione.[36] Un ulteriore problema riguarda la comprovata inadeguatezza dei programmi di IA (almeno a questo stadio dello sviluppo tecnologico) di fornire decisioni giuridiche adeguatamente motivate.[37] La motivazione, che consiste nell’esplicitare le premesse logico-giuridiche su cui si fonda una decisione, rappresenta un elemento cardine del processo decisionale legale. Tale limite costituirebbe un ostacolo significativo all’adozione dell’IA in ambito arbitrale.[38] Alla luce di queste considerazioni, l’utilizzo di strumenti di IA nel processo decisionale si rivela particolarmente problematico. Pertanto, in attesa che si crei più chiarezza sul punto, è essenziale che gli arbitri e le parti coinvolte stabiliscano criteri rigorosi per l’eventuale utilizzo di strumenti di IA, al fine di garantire il rispetto dei principi di indipendenza, imparzialità e trasparenza nel processo arbitrale, evitando così incertezze e potenziali contestazioni. In questo contesto emerge chiaramente la questione se sia necessario informare le parti coinvolte sull’uso dell’intelligenza artificiale da parte di arbitri o avvocati in un procedimento legale, un tema che dovrà essere chiarito nel prossimo futuro.[39]
- Legislazione sul punto
Proprio in virtù di quanto esaminato sopra, le Istituzioni Arbitrali si stanno adeguando all’introduzione dell’Intelligenza Artificiale nei procedimenti arbitrali. Il 30 aprile 2024, il Silicon Valley Arbitration and Mediation Center (“SVAMC”) ha pubblicato la prima edizione delle sue “Guidelines on the Use of Artificial Intelligence in Arbitration” (“Guideline”). Si è trattato del primo esempio di Istituzione Arbitrale che ha integrato disposizioni sull’IA nel proprio regolamento[40]. Anche il Judicial Arbitration and Mediation Services (“JAMS”), uno dei principali fornitori di servizi di risoluzione alternativa delle controversie, ha avviato un adeguamento all’ingresso dei sistemi di Intelligenza Artificiale nei procedimenti arbitrali, promulgando in data 23 aprile 2024 (dunque nello stesso periodo delle Guideline dello SVAMC) le “Rules Governing Disputes Involving Artificial Intelligence Systems”, un insieme di disposizioni concepite specificamente per disciplinare le controversie derivanti dall’utilizzo di sistemi di IA.[41] Infine, nell’ottobre 2024, l’Arbitration Institute della Stockholm Chamber of Commerce (“SCC”) ha emanato una guida dedicata all’uso dell’Intelligenza Artificiale nei procedimenti arbitrali regolati dal proprio regolamento. Il documento ha l’obiettivo di definire linee guida che garantiscano che l’adozione delle tecnologie IA non comprometta l’integrità e l’imparzialità delle procedure arbitrali.[42] Nonostante le differenze e le peculiarità delle singole fonti citate, emergono alcuni principi condivisi che “traggono” spunto dai rischi sopra evidenziati. Innanzitutto, la supervisione umana rimane centrale per tutte e tre le Istituzioni (vedi # 2.2 sopra). In nessun caso le decisioni finali possono essere infatti delegate all’IA. Gli arbitri hanno facoltà di avvalersi di questi strumenti per sole attività di supporto – come l’analisi dei fatti o la gestione documentale – assumendosi l’obbligo di verificarne l’accuratezza e assumersi la piena responsabilità dei risultati prodotti. La trasparenza è un altro pilastro comune (vedi sempre # 2.4 sopra) pur con i dovuti distinguo. La SCC impone infatti agli arbitri di dichiarare qualsiasi uso dell’IA, consentendo alle parti di essere informate e, se necessario, opporsi a tale utilizzo da parte del tribunale arbitrale. Il SVAMC adotta un approccio più flessibile, riservando la decisione alla discrezionalità degli arbitri sulla base alle circostanze del caso. Il JAMS, invece, introduce protocolli specifici per garantire che i risultati generati dall’IA siano accessibili e contestabili da tutte le parti. Infine, tutti i regolamenti pongono particolare enfasi sul tema della protezione, riservatezza e sicurezza dei dati (cfr. # 2.3 sopra). Tutte le Istituzioni richiedono infatti l’uso di strumenti IA conformi agli standard più rigorosi in materia di protezione dei dati e anonimizzazione, con obbligo di verifica delle politiche di archiviazione e gestione delle informazioni. È comunque ipotizzabile che, dopo le iniziative sopra menzionate, sempre più istituzioni arbitrali intraprenderanno presto un percorso di regolamentazione sull’uso dei sistemi di intelligenza artificiale nei procedimenti che amministrano, al fine di rimanere “al passo”.
- Conclusione e raccomandazioni
In conclusione, l’IA offre immense opportunità per aumentare l’efficienza nell’arbitrato internazionale a lungo termine, aprendo nuove possibilità per ottimizzare tempi e risorse. Tuttavia, queste innovazioni portano con sé anche rischi inediti che necessitano di un’attenta regolamentazione e di una gestione cauta da parte dei collegi difensivi e degli arbitri. Per questo, un numero crescente di organismi sta definendo progressivamente leggi e linee guida per un uso responsabile dell’IA. Guardando al futuro, una collaborazione tra innovatori tecnologici, legislatori e professionisti legali sarà fondamentale per sfruttare al meglio le potenzialità dell’IA, trasformando l’arbitrato in un processo sempre più sicuro, accessibile e adattabile ai bisogni delle parti. Nell’attesa che tale trend si consolidi, proponiamo le seguenti raccomandazioni per una gestione sicura ed efficace dell’IA in ambito arbitrale:
- Privilegiare strumenti di IA con processi trasparenti e valutare continuamente le criticità legate all’utilizzo dell’IA.
- Verificare che l’IA sia regolarmente aggiornata con dati attuali e controllare gli output
- Valutare con attenzione i fornitori di tecnologia IA, assicurandosi che rispettino rigorosi standard di privacy e siano conformi alla normativa, come il GDPR.
- Valutare l’utilizzo dell’IA con i propri clienti e/o le parti e stabilirne le modalità d’uso.
- Nel caso in cui si esercitino funzioni di arbitro, è fondamentale mantenere sempre l’autorità decisionale, utilizzando l’IA esclusivamente come supporto e garantendo, comunque, il consenso delle parti per il suo impiego.