L’ARBITRATO NELL’ERA DELL’INTELLIGENZA ARTIFICIALE: NUOVE OPPORTUNITÀ E SFIDE

team valletta Arbitrato e ADR, Digital/Tech, Giulio Francesco Angius, Jacopo Piemonte, Michelangelo Cicogna, Pubblicazioni

L’intelligenza artificiale (“IA”) è ormai divenuta una componente essenziale della società contemporanea. Sebbene il suo utilizzo sia talvolta oggetto di critiche e vi siano timori che, in futuro, l’IA possa sostituire l’essere umano in alcune attività, è innegabile che questa tecnologia emergente contribuisca a migliorare l’efficienza del lavoro quotidiano e a semplificare numerosi processi. Coloro che scelgono di non avvalersene rischiano di trovarsi in una posizione di svantaggio, soprattutto alla luce del rapido progresso in questo ambito, che rende sempre più urgente l’elaborazione di una regolamentazione adeguata al suo impiego. L’impiego di strumenti basati sull’IA nel contesto legale presenta numerosi vantaggi, ma comporta anche sfide significative. Tale affermazione risulta valida anche nell’ambito dell’arbitrato internazionale. Nel prosieguo, si esamineranno i principali ambiti di applicazione dell’IA nei procedimenti arbitrali (paragrafo 1). Seguirà un’analisi delle sfide connesse all’adozione di tali tecnologie in questo specifico contesto (paragrafo 2). Si accennerà brevemente ad alcuni regolamenti istituzionali che toccano il tema dell’intelligenza artificiale (paragrafo 3). Infine, saranno proposte alcune conclusioni in merito a questa tematica (paragrafo 4).

  1. Potenziali modalità d’utilizzo dell’intelligenza artificiale nell’arbitrato

Nell’ambito dell’arbitrato internazionale, l’impiego dell’IA può rivelarsi di grande utilità. L’IA consente, infatti, l’automazione di numerose attività legali, contribuendo a ridurre il carico di lavoro di avvocati e arbitri e migliorando l’efficienza complessiva dei procedimenti arbitrali. Tale tecnologia può supportare gli operatori del settore arbitrale in tutte le fasi del procedimento, dall’inizio alla sua conclusione. Tra le varie applicazioni, l’IA si distingue per la sua capacità di analizzare ampi volumi documentali, agevolando sia la revisione che l’accertamento dei fatti, oltre a rendere più efficiente la fase di produzione dei documenti. Ad esempio, mediante l’IA, è possibile generare cronologie in tempi estremamente ridotti, identificare con precisione documenti appartenenti a categorie specifiche e oscurare informazioni sensibili con maggiore rapidità ed efficacia.[1] Grazie all’IA, è possibile inoltre accelerare e rendere più accurata la ricerca legale, permettendo ai professionisti di accedere rapidamente a giurisprudenza rilevante e a precedenti. Inoltre, l’IA può fornire traduzioni automatiche di alta qualità, semplificando la comunicazione in arbitrati internazionali e riducendo i costi per le traduzioni di allegati. Inoltre, è stato dimostrato come la creazione di documenti standard, come ordini procedurali, calendari procedurali o “redfern schedule”, può essere gestita rapidamente da strumenti basati sull’IA.[2] L’IA può essere altresì utilizzata per analizzare i profili degli arbitri e aiutare le parti a selezionare i candidati più adeguati in base a criteri oggettivi e personalizzati.[3] Oltre agli aspetti già evidenziati, i sistemi di IA offrono un contributo significativo anche nell’ambito dell’analisi predittiva, mettendo a disposizione di parti e consulenti strumenti avanzati per stimare, in via preliminare, le probabilità di successo di una causa o di un’azione legale.[4] Ad esempio, diverse piattaforme sul “mercato” sfruttano ampie banche dati giurisprudenziali con l’obiettivo di fornire informazioni dettagliate su tribunali, giudici, avvocati e controparti, dichiarando di poter anticipare comportamenti e risultati sulla base di differenti strategie legali.[5] Questi strumenti risulterebbero utili non solo nella fase preparatoria del procedimento arbitrale, ma anche nella previsione degli esiti, attraverso l’analisi di trend consolidati e modelli statistici elaborati.[6] Secondo alcuni, tali strumenti potrebbero persino supportare gli arbitri nella previsione di sviluppi futuri relativi a un lodo arbitrale, come la probabilità che esso venga annullato, non eseguito o liberamente eseguito.[7] Ciò consentirebbe agli arbitri di redigere decisioni che, basandosi su dati storici e modelli predittivi, risultino più stabili nel tempo[8]. Infine, l’IA potrebbe evolversi fino a coadiuvare gli arbitri nella preparazione del processo decisionale, in particolare in controversie caratterizzate da elevata complessità. Questa applicazione è già una realtà nel contenzioso ordinario e nei procedimenti di “class action”.[9] Non si può dunque escludere che sistemi simili possano essere adottati anche nell’ambito dell’arbitrato internazionale in tempi relativamente brevi (vedi però il # 2.4 sotto per le possibili problematiche emergenti in tale area).

  1. Le sfide emergenti

Sebbene i benefici sopra menzionati dell’intelligenza artificiale siano indiscutibili, è essenziale non sottovalutare i potenziali rischi legati al suo utilizzo nell’ambito dell’arbitrato internazionale. In seguito, verranno esaminate le principali problematiche che possono emergere in questo contesto. 2.1 Elaborazione e addestramento di dati: il problema della “black box” e dei “bias” Il problema della “black box” nell’IA si riferisce alla mancanza di trasparenza nel modo in cui i sistemi di IA, in particolare quelli che utilizzano algoritmi complessi come il deep learning, prendono le decisioni.[10] Questa opacità rende difficile comprendere, interpretare e fidarsi dei risultati generati dai sistemi di IA. Se applicato al campo legale, questo problema solleva considerazioni etiche significative, in particolare per quanto riguarda la riproduzione di elementi di discriminazione (che possono essere definiti come “bias”). L’IA si basa infatti sui dati immessi nel sistema.[11] I sistemi di IA vengono addestrati su informazioni che possono contenere dati distorti o non rappresentativi.[12] Se questi dati non vengono identificati e corretti, l’algoritmo che è stato addestrato con tali dati può perpetuare e persino esacerbare determinati pregiudizi portando a risultati non corretti.[13] Il rischio di perpetuazione degli stereotipi può concretizzarsi, ad esempio, quando si utilizzano strumenti di IA per la selezione degli arbitri, qualora questi si fondino su probabilità statistiche derivanti dai dati disponibili, soprattutto riguardo alla composizione predominante dei tribunali arbitrali nella prassi.[14] 2.2 Dati obsoleti e “allucinazioni” L’IA richiede poi l’accesso a dati aggiornati e rilevanti per funzionare correttamente. Se il sistema viene alimentato con dati obsoleti, c’è il rischio che le analisi e le raccomandazioni fornite risultino fuori contesto o non più valide per le situazioni attuali. A tal riguardo, un’ulteriore sfida che si presenta è rappresentata dalle possibili “allucinazioni” generate dall’IA.[15] Queste si verificano quando i sistemi di IA producono risposte inaccurate o fuorvianti, basate su dati inesistenti o errati.[16]  Un caso emblematico si è verificato durante un procedimento legale negli Stati Uniti, in cui un collegio difensivo ha utilizzato un sistema di intelligenza artificiale per reperire precedenti giuridici da presentare in udienza. Solo durante il corso della causa, il giudice ha rilevato che quei casi non erano effettivamente esistenti.[17]  Un episodio emblematico si è verificato all’inizio del 2025 in Norvegia, dove un avvocato ha presentato in giudizio fonti fittizie generate da un sistema di intelligenza artificiale. L’incidente ha spinto la Corte Suprema norvegese ad aggiornare le proprie linee guida, introducendo un nuovo articolo specificamente dedicato alla regolamentazione dell’uso dell’IA nei procedimenti giudiziari. [18] Questo caso ha evidenziato in modo significativo i rischi legati all’impiego di tali tecnologie ed in particolare la tendenza di alcuni sistemi a produrre contenuti imprecisi, fuorvianti o completamente inventati. Pertanto, nel contesto dell’arbitrato, non si può ignorare la possibilità che l’impiego di strumenti basati sull’intelligenza artificiale possa portare al deposito di atti contenenti errori, o a valutazioni imprecise, qualora la gestione dei dati sottostanti non sia adeguata.[19] È pertanto fondamentale che gli avvocati e gli arbitri adottino un approccio critico nei confronti delle tecnologie IA, assicurandosi, attraverso un’accurata supervisione, che le informazioni impiegate siano precise, verificabili e affidabili.[20] 2.3 Obbligo di segreto professionale, confidenzialità dei dati Oltre a quanto già menzionato, è necessario considerare un’ulteriore circostanza legata al fatto che i legali sono tenuti a osservare rigorosamente il segreto professionale.[21] In un’epoca sempre più digitalizzata, caratterizzata dall’ampio utilizzo di strumenti di intelligenza artificiale, i dati relativi a determinati procedimenti rischiano di non essere completamente “protetti” quando vengono condivisi con i fornitori di soluzioni di IA. La possibilità tecnica per tali fornitori di accedere ai dati legali infatti può portare a violazioni della riservatezza e all’uso improprio delle informazioni dei clienti.[22] Le piattaforme legali online e i fornitori di IA, inoltre, spesso non forniscono informazioni chiare sulla loro capacità di riutilizzare i dati conservati, sollevando preoccupazioni riguardo alla profilazione e al riutilizzo dei dati, anche quando questi vengono anonimizzati.[23] I dati legali, come decisioni giudiziarie o contratti in formato “full-text”, sono poi particolarmente difficili da anonimizzare in modo efficace. Le informazioni contestuali possono, infatti, ancora permettere di identificare i clienti o le entità coinvolte, nonostante la rimozione di nomi e località.[24] Alla luce di quanto esposto, per coloro che intendano impiegare strumenti di intelligenza artificiale nell’ambito di un procedimento arbitrale (sia avvocati per l’ausilio nella redazione delle memorie, sia arbitri per supporto nelle attività di gestione della causa) è fondamentale selezionare con attenzione i fornitori di servizi IA. Questo per garantire che i loro servizi rispettino la riservatezza e proteggano adeguatamente i dati, evitando compromissioni del segreto professionale.[25] 2.4 Rischi legati al processo decisionale automatizzato Infine, per concludere la “carrellata” di criticità dell’utilizzo dell’IA nei procedimenti arbitrali, valuteremo di seguito i rischi legati al possibile utilizzo dell’IA da parte degli arbitri nel processo decisionale. Abbiamo già visto sopra che tale possibilità potrà essere ampiamente sviluppata in futuro. D’altra parte, è imprescindibile considerare che l’attività dell’arbitro deve essere condotta nel rispetto di specifici standard etici, quali l’indipendenza, l’imparzialità, la competenza e il dovere di garantire l’esecutività dei lodi.[26] L’uso improprio degli strumenti basati sull’intelligenza artificiale da parte degli arbitri a fini di assistenza nel loro processo decisionale potrebbe compromettere tali principi, fornendo potenziali motivi per impugnare un lodo.[27] A riguardo, un primo aspetto fondamentale riguarda la natura intuitu personae del mandato arbitrale, che richiede lo svolgimento diretto delle funzioni assegnate.[28] Qualora vi sia una delega, come avviene ad esempio con l’utilizzo di segretari del tribunale, tale circostanza deve essere comunicata previamente alle parti.[29] Pertanto, si è sollevata una critica legittima sull’opportunità per l’arbitro di delegare attività connesse alla propria funzione decisionale a un sistema o software di IA.[30] Ulteriormente, si pone il quesito circa la possibilità di delegare in parte o totalmente il processo decisionale a un programma di IA. In base al diritto francese, ad esempio, solo una persona fisica con piena capacità legale può ricoprire il ruolo di arbitro.[31]  Analogamente, secondo l’ordinamento italiano, “[n]on può essere arbitro chi è privo, in tutto o in parte, della capacità legale di agire“.[32] Un precedente giurisprudenziale nel contesto della registrazione di brevetti assistiti dall’IA ha stabilito che i modelli di IA non possono essere considerati persone fisiche.[33] Di conseguenza, una delega delle funzioni giudicanti a un programma IA potrebbe violare questo requisito[34] e condurre all’impugnazione del lodo.[35] A tale riguardo, si può altresì notare che la Convenzione di New York, che disciplina l’esecuzione dei lodi arbitrali in molte giurisdizioni, prevede all’articolo V la possibilità di rifiutare l’esecuzione di un lodo qualora la procedura arbitrale non sia stata condotta in conformità con l’accordo tra le parti o con la legge del paese in cui si è svolto l’arbitrato. Pertanto, l’utilizzo di IA nel processo decisionale senza il consenso delle parti o in violazione delle normative applicabili potrebbe costituire un valido motivo di contestazione.[36] Un ulteriore problema riguarda la comprovata inadeguatezza dei programmi di IA (almeno a questo stadio dello sviluppo tecnologico) di fornire decisioni giuridiche adeguatamente motivate.[37] La motivazione, che consiste nell’esplicitare le premesse logico-giuridiche su cui si fonda una decisione, rappresenta un elemento cardine del processo decisionale legale. Tale limite costituirebbe un ostacolo significativo all’adozione dell’IA in ambito arbitrale.[38] Alla luce di queste considerazioni, l’utilizzo di strumenti di IA nel processo decisionale si rivela particolarmente problematico. Pertanto, in attesa che si crei più chiarezza sul punto, è essenziale che gli arbitri e le parti coinvolte stabiliscano criteri rigorosi per l’eventuale utilizzo di strumenti di IA, al fine di garantire il rispetto dei principi di indipendenza, imparzialità e trasparenza nel processo arbitrale, evitando così incertezze e potenziali contestazioni. In questo contesto emerge chiaramente la questione se sia necessario informare le parti coinvolte sull’uso dell’intelligenza artificiale da parte di arbitri o avvocati in un procedimento legale, un tema che dovrà essere chiarito nel prossimo futuro.[39]

  1. Legislazione sul punto

Proprio in virtù di quanto esaminato sopra, le Istituzioni Arbitrali si stanno adeguando all’introduzione dell’Intelligenza Artificiale nei procedimenti arbitrali. Il 30 aprile 2024, il Silicon Valley Arbitration and Mediation Center (“SVAMC”) ha pubblicato la prima edizione delle sue “Guidelines on the Use of Artificial Intelligence in Arbitration” (“Guideline”). Si è trattato del primo esempio di Istituzione Arbitrale che ha integrato disposizioni sull’IA nel proprio regolamento[40]. Anche il Judicial Arbitration and Mediation Services (“JAMS”), uno dei principali fornitori di servizi di risoluzione alternativa delle controversie, ha avviato un adeguamento all’ingresso dei sistemi di Intelligenza Artificiale nei procedimenti arbitrali, promulgando in data 23 aprile 2024 (dunque nello stesso periodo delle Guideline dello SVAMC) le “Rules Governing Disputes Involving Artificial Intelligence Systems”, un insieme di disposizioni concepite specificamente per disciplinare le controversie derivanti dall’utilizzo di sistemi di IA.[41] Infine, nell’ottobre 2024, l’Arbitration Institute della Stockholm Chamber of Commerce (“SCC”) ha emanato una guida dedicata all’uso dell’Intelligenza Artificiale nei procedimenti arbitrali regolati dal proprio regolamento. Il documento ha l’obiettivo di definire linee guida che garantiscano che l’adozione delle tecnologie IA non comprometta l’integrità e l’imparzialità delle procedure arbitrali.[42] Nonostante le differenze e le peculiarità delle singole fonti citate, emergono alcuni principi condivisi che “traggono” spunto dai rischi sopra evidenziati. Innanzitutto, la supervisione umana rimane centrale per tutte e tre le Istituzioni (vedi # 2.2 sopra). In nessun caso le decisioni finali possono essere infatti delegate all’IA. Gli arbitri hanno facoltà di avvalersi di questi strumenti per sole attività di supporto – come l’analisi dei fatti o la gestione documentale – assumendosi l’obbligo di verificarne l’accuratezza e assumersi la piena responsabilità dei risultati prodotti. La trasparenza è un altro pilastro comune (vedi sempre # 2.4 sopra) pur con i dovuti distinguo. La SCC impone infatti agli arbitri di dichiarare qualsiasi uso dell’IA, consentendo alle parti di essere informate e, se necessario, opporsi a tale utilizzo da parte del tribunale arbitrale. Il SVAMC adotta un approccio più flessibile, riservando la decisione alla discrezionalità degli arbitri sulla base alle circostanze del caso. Il JAMS, invece, introduce protocolli specifici per garantire che i risultati generati dall’IA siano accessibili e contestabili da tutte le parti. Infine, tutti i regolamenti pongono particolare enfasi sul tema della protezione, riservatezza e sicurezza dei dati (cfr. # 2.3 sopra). Tutte le Istituzioni richiedono infatti l’uso di strumenti IA conformi agli standard più rigorosi in materia di protezione dei dati e anonimizzazione, con obbligo di verifica delle politiche di archiviazione e gestione delle informazioni. È comunque ipotizzabile che, dopo le iniziative sopra menzionate, sempre più istituzioni arbitrali intraprenderanno presto un percorso di regolamentazione sull’uso dei sistemi di intelligenza artificiale nei procedimenti che amministrano, al fine di rimanere “al passo”.

  1. Conclusione e raccomandazioni

In conclusione, l’IA offre immense opportunità per aumentare l’efficienza nell’arbitrato internazionale a lungo termine, aprendo nuove possibilità per ottimizzare tempi e risorse. Tuttavia, queste innovazioni portano con sé anche rischi inediti che necessitano di un’attenta regolamentazione e di una gestione cauta da parte dei collegi difensivi e degli arbitri. Per questo, un numero crescente di organismi sta definendo progressivamente leggi e linee guida per un uso responsabile dell’IA. Guardando al futuro, una collaborazione tra innovatori tecnologici, legislatori e professionisti legali sarà fondamentale per sfruttare al meglio le potenzialità dell’IA, trasformando l’arbitrato in un processo sempre più sicuro, accessibile e adattabile ai bisogni delle parti. Nell’attesa che tale trend si consolidi, proponiamo le seguenti raccomandazioni per una gestione sicura ed efficace dell’IA in ambito arbitrale:

  1. Privilegiare strumenti di IA con processi trasparenti e valutare continuamente le criticità legate all’utilizzo dell’IA.
  2. Verificare che l’IA sia regolarmente aggiornata con dati attuali e controllare gli output
  3. Valutare con attenzione i fornitori di tecnologia IA, assicurandosi che rispettino rigorosi standard di privacy e siano conformi alla normativa, come il GDPR.
  4. Valutare l’utilizzo dell’IA con i propri clienti e/o le parti e stabilirne le modalità d’uso.
  5. Nel caso in cui si esercitino funzioni di arbitro, è fondamentale mantenere sempre l’autorità decisionale, utilizzando l’IA esclusivamente come supporto e garantendo, comunque, il consenso delle parti per il suo impiego.

 

Scarica l’articolo

 


 

[1]      Janine Haesler/Tim Isler, Navigating the Main Impacts of Artificial Intelligence in International Arbitration: Insights from the ICC YAAF Workshop, in Kluwer Arbitration Blog, 17 marzo 2024 (https://arbitrationblog.kluwerarbitration.com/2024/03/17/navigating-the-main-impacts-of-artificial-intelligence-in-international-arbitration-insights-from-the-icc-yaaf-workshop/). [2]      Leonardo F. Souza-McMurtrie, Arbitration Tech Toolbox: Will ChatGPT Change International Arbitration as We Know It?, in Kluwer Arbitration Blog, 26 febbraio 2023 (https://arbitrationblog.kluwerarbitration.com/2023/02/26/arbitration-tech-toolbox-will-chatgpt-change-international-arbitration-as-we-know-it/). [3]      Martina Magnarelli, Cogito ergo (intelligens) sum? Artificial Intelligence and international arbitration: who would set out the rules of the game? Iurgium, volume 2022, numero 43, pag. 31 segg., para. 10; Janine Haesler/Tim Isler, Navigating the Main Impacts of Artificial Intelligence in International Arbitration: Insights from the ICC YAAF Workshop, in Kluwer Arbitration Blog, 17 marzo 2024 (https://arbitrationblog.kluwerarbitration.com/2024/03/17/navigating-the-main-impacts-of-artificial-intelligence-in-international-arbitration-insights-from-the-icc-yaaf-workshop/). [4]      Martina Magnarelli, Cogito ergo (intelligens) sum? Artificial Intelligence and international arbitration: who would set out the rules of the game? Iurgium, volume 2022, numero 43, pag. 31 segg., para. 12. [5]      Janine Haesler/Tim Isler, Navigating the Main Impacts of Artificial Intelligence in International Arbitration: Insights from the ICC YAAF Workshop, in Kluwer Arbitration Blog, 17 marzo 2024 (https://arbitrationblog.kluwerarbitration.com/2024/03/17/navigating-the-main-impacts-of-artificial-intelligence-in-international-arbitration-insights-from-the-icc-yaaf-workshop/). [6]      Janine Haesler/Tim Isler, Navigating the Main Impacts of Artificial Intelligence in International Arbitration: Insights from the ICC YAAF Workshop, in Kluwer Arbitration Blog, 17 marzo 2024 (https://arbitrationblog.kluwerarbitration.com/2024/03/17/navigating-the-main-impacts-of-artificial-intelligence-in-international-arbitration-insights-from-the-icc-yaaf-workshop/). [7]      Leonardo F. Souza-McMurtrie, Arbitration Tech Toolbox: Will ChatGPT Change International Arbitration as We Know It?, in Kluwer Arbitration Blog, 26 febbraio 2023 (https://arbitrationblog.kluwerarbitration.com/2023/02/26/arbitration-tech-toolbox-will-chatgpt-change-international-arbitration-as-we-know-it/). [8]      Leonardo F. Souza-McMurtrie, Arbitration Tech Toolbox: Will ChatGPT Change International Arbitration as We Know It? in Kluwer Arbitration Blog, 26 febbraio 2023 (https://arbitrationblog.kluwerarbitration.com/2023/02/26/arbitration-tech-toolbox-will-chatgpt-change-international-arbitration-as-we-know-it/). [9]      Ad esempio, la Corte Regionale di Francoforte ha sviluppato uno strumento di IA, il Frankfurter Urteils-Konfigurator elektronisch (FRaUKe), per assistere i giudici nella gestione dei procedimenti relativi ai diritti dei passeggeri aerei (https://hessen.de/presse/hessen-und-brandenburg-kooperieren-beim-ki-projekt-frauke). Analogamente, la Corte d’Appello di Stoccarda ha implementato un progetto denominato Oberlandesgerichtsassistent (OLGA), finalizzato a facilitare la gestione dei procedimenti legati allo scandalo Diesel (https://de.newsroom.ibm.com/2022-12-07-OLG-Stuttgart-pilotiert-IBM-Massenverfahrensassistenten-zur-Fallbearbeitung-in-Dieselabgasverfahren). [10]    Maxi Scherer, Artificial Intelligence and Legal Decision-Making: The Wide Open? Study on the Example of International Arbitration, Queen Mary University of London, School of Law Legal Studies Research Paper No. 318/2019, pag. 22 segg. [11]    Maxi Scherer, Artificial Intelligence and Legal Decision-Making: The Wide Open? Study on the Example of International Arbitration, Queen Mary University of London, School of Law Legal Studies Research Paper No. 318/2019, pag. 19; Mahnoor Waqar, The Use of AI in Arbitral Proceedings, in Ohio State Journal on Dispute Resolution, 2022, volume 37, numero 3, pag. 343 segg., pag. 359. [12]    Maxi Scherer, Artificial Intelligence and Legal Decision-Making: The Wide Open? Study on the Example of International Arbitration, Queen Mary University of London, School of Law Legal Studies Research Paper No. 318/2019, pag. 22 segg., 31. [13]    Maxi Scherer, Artificial Intelligence and Legal Decision-Making: The Wide Open? Study on the Example of International Arbitration, Queen Mary University of London, School of Law Legal Studies Research Paper No. 318/2019, pag. 22 segg., 31; Silicon Valley Arbitration & Mediation Center, Guidelines on the Use of Artificial Intelligence in Arbitration, Commentario della Guideline 1, pag. 16. [14]    Janine Haesler/Tim Isler, Navigating the Main Impacts of Artificial Intelligence in International Arbitration: Insights from the ICC YAAF Workshop, in Kluwer Arbitration Blog, 17 marzo 2024 (https://arbitrationblog.kluwerarbitration.com/2024/03/17/navigating-the-main-impacts-of-artificial-intelligence-in-international-arbitration-insights-from-the-icc-yaaf-workshop/); Martina Magnarelli, Cogito ergo (intelligens) sum? Artificial Intelligence and international arbitration: who would set out the rules of the game? Iurgium, volume 2022, numero 43, pag. 31 segg., para. 10. [15]    Crenguta Leaua/Corina Tănase, Artificial Intelligence and Arbitration: Some Considerations on the Eve of a Global Regulation, in Revista Română de Arbitraj, 2023, volume 17, numero 4, pag. 31 segg., pag. 37. [16]    Silicon Valley Arbitration & Mediation Center, Guidelines on the Use of Artificial Intelligence in Arbitration, Commentario della Guideline 1, pag. 16. [17]    Cfr. https://www.forbes.com/sites/mattnovak/2023/05/27/lawyer-uses-chatgpt-in-federal-court-and-it-goes-horribly-wrong/. [18]    Cfr. https://www.advokatbladet.no/hoyesterett-kunstig-intelligens/hoyesterett-har-mottatt-sitt-forste-prosesskriv-med-oppdiktede-kilder/227171; https://www.domstol.no/globalassets/upload/hret/internett/advokatveiledningen/advokatveiledningen-april-2025.pdf. [19]    Crenguta Leaua/Corina Tănase, Artificial Intelligence and Arbitration: Some Considerations on the Eve of a Global Regulation, in Revista Română de Arbitraj, 2023, volume 17, numero 4, pag. 31 segg., pag. 37. [20]    Silicon Valley Arbitration & Mediation Center, Guidelines on the Use of Artificial Intelligence in Arbitration, Commentario della Guideline 1, pag. 16. [21]    Art. 13 del Codice Deontologico Forense Italiano. [22]        Council of Bars and Law Societies of Europe, Guide on the use of Artificial Intelligence-based tools by lawyers and law firms in the EU, 2022, p. 47, 51. [23]    Council of Bars and Law Societies of Europe, Guide on the use of Artificial Intelligence-based tools by lawyers and law firms in the EU, 2022, p. 48. [24]    Le salvaguardie previste dal GDPR non affrontano inoltre necessariamente in modo esaustivo i rischi derivanti dall’utilizzo di strumenti basati sull’intelligenza artificiale (Council of Bars and Law Societies of Europe, Guide on the use of Artificial Intelligence-based tools by lawyers and law firms in the EU, 2022, p. 48). Inoltre, la diffusione di tali strumenti introduce un ulteriore rischio legato all’extraterritorialità nell’applicazione del GDPR. In particolare, quando i fornitori di servizi cloud, frequentemente impiegati nei programmi IA, sono regolati da normative locali non soggette al GDPR, gli utenti perdono il controllo su come tali normative possano incidere sulla protezione dei dati personali relativamente a procedimenti giudiziari (Council of Bars and Law Societies of Europe, Guide on the use of Artificial Intelligence-based tools by lawyers and law firms in the EU, 2022, p. 44). [25]    Council of Bars and Law Societies of Europe, Guide on the use of Artificial Intelligence-based tools by lawyers and law firms in the EU, 2022, p. 51; Silicon Valley Arbitration & Mediation Center, Guidelines on the Use of Artificial Intelligence in Arbitration, Commentario della Guideline 2, pag. 17. [26]    Juan Perla, A Closer Look at the New SVAMC Guidelines for AI in International Arbitration, 23 maggio 2024 (https://aria.law.columbia.edu/a-closer-look-at-the-new-svamc-guidelines-for-ai-in-international-arbitration/#:~:text=Guidelines%20for%20Arbitrators,-Arbitrators%20are%20subject&text=While%20arbitrators%20may%20use%20AI,instructed%20to%20verify%20their%20veracity). [27]    Juan Perla, A Closer Look at the New SVAMC Guidelines for AI in International Arbitration, 23 maggio 2024 (https://aria.law.columbia.edu/a-closer-look-at-the-new-svamc-guidelines-for-ai-in-international-arbitration/#:~:text=Guidelines%20for%20Arbitrators,-Arbitrators%20are%20subject&text=While%20arbitrators%20may%20use%20AI,instructed%20to%20verify%20their%20veracity). [28]    Claire Morel de Westgaver, Canvassing Views on AI in IA: The Rise of Machine Learning, in Kluwer Arbitration Blog, 12 luglio 2023 (https://arbitrationblog.kluwerarbitration.com/2023/07/12/canvassing-views-on-ai-in-ia-the-rise-of-machine-learning/); Crenguta Leaua/Corina Tănase, Artificial Intelligence and Arbitration: Some Considerations on the Eve of a Global Regulation, in Revista Română de Arbitraj, 2023, volume 17, numero 4, pag. 31 segg., pag. 38. [29]    Claire Morel de Westgaver, Canvassing Views on AI in IA: The Rise of Machine Learning, in Kluwer Arbitration Blog, 12 luglio 2023 (https://arbitrationblog.kluwerarbitration.com/2023/07/12/canvassing-views-on-ai-in-ia-the-rise-of-machine-learning/). [30]    Claire Morel de Westgaver, Canvassing Views on AI in IA: The Rise of Machine Learning, in Kluwer Arbitration Blog, 12 luglio 2023 (https://arbitrationblog.kluwerarbitration.com/2023/07/12/canvassing-views-on-ai-in-ia-the-rise-of-machine-learning/). [31]    Art. 1450 del Codice di Procedura Civile Francese: “La mission d’arbitre ne peut être exercée que par une personne physique jouissant du plein exercice de ses droits.” [32]    Art. 812 del Codice di Procedura Civile Italiano. [33]    United States Court of Appeals for the Federal Circuit, Stephen Thaler v. Katherine K. Vidal, Under Secretary of Commerce for Intellectual Property and Director of the United States Patent and Trademark Office, Case no. 2021-2347, 5 August 2022. [34]    Juan Perla, A Closer Look at the New SVAMC Guidelines for AI in International Arbitration, 23 maggio 2024 (https://aria.law.columbia.edu/a-closer-look-at-the-new-svamc-guidelines-for-ai-in-international-arbitration/#:~:text=Guidelines%20for%20Arbitrators,-Arbitrators%20are%20subject&text=While%20arbitrators%20may%20use%20AI,instructed%20to%20verify%20their%20veracity). [35]    Juan Perla, A Closer Look at the New SVAMC Guidelines for AI in International Arbitration, 23 maggio 2024 (https://aria.law.columbia.edu/a-closer-look-at-the-new-svamc-guidelines-for-ai-in-international-arbitration/#:~:text=Guidelines%20for%20Arbitrators,-Arbitrators%20are%20subject&text=While%20arbitrators%20may%20use%20AI,instructed%20to%20verify%20their%20veracity); Crenguta Leaua/Corina Tănase, Artificial Intelligence and Arbitration: Some Considerations on the Eve of a Global Regulation, in Revista Română de Arbitraj, 2023, volume 17, numero 4, pag. 31 segg., pag. 38. [36]    Juan Perla, A Closer Look at the New SVAMC Guidelines for AI in International Arbitration, 23 maggio 2024 (https://aria.law.columbia.edu/a-closer-look-at-the-new-svamc-guidelines-for-ai-in-international-arbitration/#:~:text=Guidelines%20for%20Arbitrators,-Arbitrators%20are%20subject&text=While%20arbitrators%20may%20use%20AI,instructed%20to%20verify%20their%20veracity). Occorre comunque notare che, pur non menzionando espressamente l’uso dell’IA, alcuni autori sottolineano che la Convenzione di New York, risalente al 1958, non poteva prevedere tale eventualità, rendendo dunque la questione particolarmente interessante (vedi più in dettaglio l’analisi di Annabelle O. Onyefulu, Artificial Intelligence in International Arbitration: A Step Too Far?, in The International Journal of Arbitration, Mediation and Dispute Management, pag. 56 segg., pag. 60 segg., con ulteriori riferimenti). [37]    Maxi Scherer, Artificial Intelligence and Legal Decision-Making: The Wide Open? Study on the Example of International Arbitration, Queen Mary University of London, School of Law Legal Studies Research Paper No. 318/2019, pag. 22. [38]    Vedi più in dettaglio Maxi Scherer, Artificial Intelligence and Legal Decision-Making: The Wide Open? Study on the Example of International Arbitration, Queen Mary University of London, School of Law Legal Studies Research Paper No. 318/2019, pag. 22 segg. [39]    Claire Morel de Westgaver, Canvassing Views on AI in IA: The Rise of Machine Learning, in Kluwer Arbitration Blog, 12 luglio 2023 (https://arbitrationblog.kluwerarbitration.com/2023/07/12/canvassing-views-on-ai-in-ia-the-rise-of-machine-learning/). [40]    Silicon Valley Arbitration & Mediation Center, Guidelines on the Use of Artificial Intelligence in Arbitration, pag. 8 (“computer systems that perform tasks commonly associated with human cognition, such as understanding natural language, recognising complex semantic patterns, and generating human-like outputs”). In particolare, le Guidelines definiscono l’intelligenza artificiale come “sistemi informatici che svolgono compiti comunemente associati alla cognizione umana, come la comprensione del linguaggio naturale, il riconoscimento di schemi semantici complessi e la generazione di risultati simili a quelli umani”. [41]   Judicial Arbitration and Mediation Services, Artificial Intelligence Disputes Clause and Rules, Sezione 1, pag. 1 seg. [42]   Arbitration Institute of the Stockholm Chamber of Commerce (SCC), Guide to the Use of Artificial Intelligence in Cases Administered Under the SCC Rules, Sezione “AI and its uses“, pag. 1 seg.