This book is based on the belief that the debate on artificial intelligence techniques (especially generative AI, ChatGPT, and the like) and predictive justice is often based on inadequate knowledge about the functioning and realistic prospects of using artificial intelligence tools in legal decision-making processes. According to the authors, this problem reflects an attitude of widespread ideological mistrust towards technologies, leading people to discuss their dangers and question their acceptability without actually knowing much about them. Without downplaying the major ethical and legal dilemmas that AI poses to law and justice, nor the risks involved, this book offers an accurate and accessible description of the state of the art, adopting an applied perspective (featuring extensive use of examples and practical cases) and an interdisciplinary approach that welcomes operational and professional dialogue.
Amedeo Santosuosso teaches Artificial Intelligence, Decision-Making and Law at the School for Advanced Studies (IUSS) in Pavia, where he heads the International Centre for Law, Science and New Technologies (ICLT). He is also a former judge, most recently as a president of the Court of Appeals in Milan.
Giovanni Sartor teaches Information Technology Law at the University of Bologna and the European University Institute in Florence.
- Introduzione
- I. I sistemi di IA nel diritto. Dai sistemi esperti agli LLM
- 1. L’IA nel diritto
- 2. I sistemi esperti basati sulla conoscenza simbolica
- 2.1. Il ragionamento logico-formale
- 2.2. Sistemi basati su regole e concetti
- 2.3. Sistemi esperti basati su casi
- 2.4. Conclusione sui sistemi esperti di diritto
- 3. I sistemi predittivi e l’apprendimento automatico
- 3.1. L’apprendimento supervisionato
- 3.2. L’apprendimento per rinforzo
- 3.3. L’apprendimento non supervisionato
- 3.4. L’apprendimento auto-supervisionato
- 3.5. Addestramento e costruzione di un modello
- 3.6. Predizioni e correlazioni
- 3.7. Sistemi trasparenti e sistemi opachi
- 3.8. Le reti neurali
- 3.9. Le reti neurali quali sistemi opachi
- 4. I sistemi generativi e i grandi modelli linguistici
- 4.1. Le reti neurali profonde
- 4.2. La tecnologia dei grandi modelli linguistici
- 4.3. Sistemi fondazionali e sistemi per finalità generali
- 4.4. L’uso degli LLM e il modo di interrogarli (prompt engineering)
- 4.5. Limiti e prospettive degli LLM
- 4.6. Dagli LLM all’intelligenza generale artificiale
- 4.7. Prospettive degli LLM nel diritto
- 4.8. Fact-checking giuridico e LLM
- 4.8. Fact-checking giuridico e LLM
- 4.10. LLM e società: dalla moratoria alla corsa verso lo sviluppo
- 4.11. L’accesso ai modelli
- 4.12. Intelligenza artificiale generale e capacità umane
- II. Algoritmi e dataset
- 1. Algoritmi e dati: partner necessari e complementari
- 2. Gli algoritmi
- 3. I dati: importanza della loro qualità
- 3.1. Dati e apprendimento automatico
- 3.2. Data Centric AI: un’opportunità per l’oggi
- 4. Quando l’IA fabbrica i dati: i dati sintetici
- 4.1. Dati sintetici, ibridi, sintetizzati
- 4.2. Dati sintetici in ambito giuridico?
- 4.3. Dati sintetici e decisione politica
- 5. IA generativa e raccolte dati di qualità
- 5.1. Modelli più piccoli ma validati?
- 5.2. Modelli per finalità generali e dati
- 6. IA e creatività: problemi giuridici
- 6.1. L’IA può essere autore?
- 6.2. Il caso «NYT» vs OpenAI e altri
- 6.3. La giusta lotta degli sceneggiatori di Hollywood
- 7. Dataset giuridici: USA, Cina, UE e Italia
- 7.1. In Italia la privacy è un problema: in quale senso?
- 7.2. Un problema di separazione dei poteri?
- 7.3. Il processo dai documenti ai dati e viceversa
- III. Si fa presto a dire predizione
- 1. Che cosa predire
- 1.1. Predizioni e previsioni
- 1.2. Predizioni e decisioni
- 2. Predizioni nell’IA e nell’informatica giuridica
- 2.1. Oggetto e base delle predizioni giuridiche
- 2.2. L’uso delle predizioni
- 3. Obiettivi e limiti delle predizioni giuridiche
- 3.1. Obiettivi e proxy delle predizioni
- 3.2. Limiti della predizione giuridica
- IV. Spiegabilità e legittimazione giuridica
- 1. Spiegabilità delle decisioni umane e delle indicazioni delle macchine
- 1.1. Tipi di spiegazione
- 1.2. Il valore della spiegazione
- 1.3. LLM e autospiegazioni
- 2. Decisioni e motivazioni giuridiche
- 2.1. Chi decide nel diritto
- 2.2. Cosa spiega una motivazione
- 2.3. Il ruolo dell’IA
- 2.4. L’apologia a posteriori
- 3. Tra diritto e tecnologia
- 3.1. Template concettuali
- 3.2. Template di nuova generazione e document builder
- 3.3. Possibili sviluppi operativi
- V. Regole per e decisioni con l’IA
- 1. Dal silenzio all’ardore regolatorio
- 1.1. 1997: il presidente Clinton e il libero mercato
- 1.2. L’avanzare della prospettiva etica dell’IA
- 1.3. Il tentativo (attuale) di regole strette
- 1.4. Convenzione quadro del Consiglio d’Europa
- 1.5. Il regolamento europeo AI Act
- 1.6. La Dichiarazione di Bletchley (UK)
- 1.7. La Raccomandazione UNESCO (novembre 2021)
- 1.8. L’Ordine esecutivo del presidente USA (2023)
- 2. Un nuovo costituzionalismo?
- 2.1. Un Bill of Rights per gli USA
- 2.2. Un costituzionalismo per l’UE
- 2.3. Padri fondatori, territorio e membri del club
- 2.4. Un esperimento di «IA costituzionale»
- 3. Decisioni con l’IA: nella scienza, sui campi di battaglia e nelle corti
- 3.1. Ricerca scientifica, modelli per finalità generali e giudizio dei pari
- 3.2. Decisioni sul campo di battaglia e IA
- 3.3. Decisioni in campo penale
- 3.4. Il processo del giudicare
- 4. Un giudice secondo il regolamento AI Act
- 4.1. Un pubblico amministratore secondo il regolamento AI Act
- Conclusioni. Un decisore aumentato?
- Riferimenti bibliografici