L’intelligenza artificiale impatta la nostra vita quotidiana in una miriade di modi.  

Nel campo della giustizia criminale si identificano diverse possibilità di decisioni fondate su algoritmi.   Esse possono essere dispiegate per la prevenzione, detenzione, ricerca e persecuzione di crimini, nei procedimenti giudiziari e per l’esecuzione delle pene.

Lo scopo della giustizia criminale è di punire colui che ha commesso un crimine, cioè ha violato le regole della coesistenza civile, e di impedire che egli o altri ne commettano ancora, oltre che mirare alla sua riabilitazione.

La condanna dell’imputato e le misure coercitive si imperniano sulla presunzione che la decisione presa è conforme alla verità cioè che il crimine è stato commesso dall’imputato secondo la ricostruzione processuale.   È ovvio però che la giustizia criminale non è capace di ricostruire i fatti come essi realmente accaddero.   Così la sentenza si fonda sull‘’intimo convincimento” nei sistemi di tradizione romano-germanica e “al di là di ogni ragionevole dubbio” in quelli anglosassoni.   Benché si tenda con i diversi strumenti disponibili alla professione a minimizzarne il rischio, la possibilità di errori è inerente al sistema.   Ciò è dovuto da una parte ai limiti della percezione del passato e dall’altra al procedimento di valutazione in cui gli elementi emozionali possono svolgere un ruolo preponderante.  

A tale riguardo alcuni considerano positivamente lo sviluppo in corso di una giustizia automatica, resa dall’intelligenza artificiale che non sarebbe guidata dall’emozione.   Non è il solo argomento avanzato in favore di una giustizia automatizzata ma ne è uno costantemente reiterato.   Si presume dunque che una non emozionale intelligenza artificiale potrebbe essere il rimedio in quanto si raggiungerebbe una maggiore “equità”.   Il ragionamento è quindi fondato sulla considerazione che l’emozione nel processo decisionale giudiziario sia deleteria.   Cioè l’emozione produrrebbe distorsione, irragionevolezza e ragionamento erroneo.   Il diritto sarebbe il tempio della ragione e l’emozione nemica della ragione.   Le emozioni sono descritte come impulsive, imprevedibili e irrazionali e sfocerebbero in lacunose argomentazioni.

Il fronte opposto della dottrina sostiene che queste supposizioni date per acquisite, non riflettano la realtà e la conoscenza generata dalle scienze sociali ed in particolare dallo sviluppo della psicologia cognitiva e dalla neuroscienza.   La teoria dell’emozione ci insegnerebbe che le emozioni possono essere considerate razionali nella maggior parte dei casi e che esse sono cruciali nel trattamento dell’informazione.

Il giudice, essi affermano, deve essere capace di riconoscere l’emozione come parte degli elementi di un’offesa, distinguere tra diverse emozioni, esaminarle, tematizzarle con i vari attori del processo e i loro testimoni al fine di rendere un verdetto equo.   Per essere capace di realizzare un tale complesso procedimento, gli si richiede un’intelligenza emozionale (IE).   Va da sé che l’intelligenza artificiale (IA) non possiede l’IE quindi non è capace della razionalità emozionale richiesta per un processo decisionale complesso e socialmente coinvolgente che sfocia in una sentenza.   Sostituire quindi agenti umani con processi decisionali automatici significherebbe scombussolare molte strutture e procedure che confidano nelle emozioni o in un emozionalmente intelligente trattamento delle informazioni.   D’altra parte la presenza fisica, gli incontri tra persone e l’interazione umana sono considerate centrali per un processo equo.   Gli individui, specialmente quelli considerati vulnerabili o svantaggiati socialmente, si sentono più ascoltati durante colloqui in presenza ed incontri personali.  

Avere la sensazione di essere ascoltati costituisce una parte importante del procedimento giudiziario e suscita un senso di legittimazione dell’autorità.

Insomma il dibattito è ancora vivace quanto all’utilizzo dell’intelligenza artificiale nel procedimento giudiziario.   Per ora sono più numerosi quanti sostengono che gli umani non possono essere sostituiti da agenti automatizzati senza un significativo avverso impatto sui diritti individuali ed il concetto di “giustizia” come la conosciamo, nel senso dell’interazione umana durante il processo e la deliberazione giudiziaria.   Affidarsi pesantemente su algoritmi farebbe più male che bene.

Tuttavia anche gli oppositori si accordano nel dire che il, loro ancestrale timore quanto ai mutamenti tecnologici non deve impedire ai sistemi e alle tecniche di intelligenza artificiale di essere presi in considerazione allorquando possono significativamente e positivamente giovare ai procedimenti umani, ivi compresi quelli della giustizia criminale.

Personalmente ne deduco che il processo di automatizzazione della giustizia penale sia inarrestabile ed in alcuni Paesi, proni all’incarceramento agevole, già avviato, magari in base alla configurazione della nostra scatola cranica.   Insomma, si torna agli studi craniologici del Lombroso.   La biometria potrebbe essere di pericoloso ausilio…

Dunque un solo consiglio: ‘fate i buoni’!

 

Francesco De Angelis

Per aggiungere dei commenti, devi essere membro di Associazione Mazzini Bruxelles!

Join Associazione Mazzini Bruxelles

Voti 0
Inviami un'e-mail quando le persone aggiungono una risposta –

Risposte

  •  Grazie per i commenti di Fabio e Franco che vedo solo ora. Me ne scuso. Come dicevo é'  work in progress'. Seguo da vicino la dottrina sul tema e ne faro' rapporto quanto prima.

     

  • Grazie per i commenti di Fabio e Fr

  • Ecco cosa succede nel mondo:

    • La Cina sta cercando di automatizzare il proprio sistema legale dal 2016. Il SoS dei tribunali intelligenti è nato inizialmente come database, ma è diventato molto di più. Oggi, se un giudice non è d'accordo con le conclusioni del sistema, è tenuto a fornire una spiegazione scritta.
    • Il sistema di intelligenza artificiale avrebbe fatto risparmiare al sistema legale cinese 45 miliardi di dollari (300 miliardi di yuan) tra il 2019 e il 2021.
    • La Cina non è la prima nazione ad aver incorporato le tecnologie AI nel proprio sistema legale.
    • Regno Unito, Paesi Bassi e Lettonia hanno implementato soluzioni automatizzate per la risoluzione delle controversie online.
    • Negli Stati Uniti, diversi dipartimenti di polizia e agenzie di polizia hanno utilizzato algoritmi predittivi e sistemi di riconoscimento facciale, anche se l'uso di queste tecnologie è stato esaminato da diversi gruppi per la tutela della privacy.
  • Francesco,

    le tue conclusioni sono assolutamente condivisibili. Soprattutto l'aspetto "essere stati ascoltati" scomparirebbe con l'introduzione di una giustizia basata su programmi di Intelligenza Artificiale.

    In ogni caso, penso che si sia ancora molto lontani da cose del genere.

    Ma come risolvere il problema - particolarmente grave in Italia - che le sentenze sembrano dipendere soprattutto dal giudice ? Nel nostro paese abbiamo una quantità enorme di sentenze di primo grado ribaltate dai gradi di giudizio successivi.

    Il problema non è nuovo. Nel 1972 ero segretario di un sindacato della società dove lavoravo (Italcable Spa), la Uilte. Avevamo lanciato una procedura contro la società sulla base dello Statuto dei Lavoratori per "comportamento anti sindacale".

    Il giorno prima dell'udienza dove dovevo deporre (non sotto giuramento; durò quattro ore) il nostro avvocato ha preso in mano la lista degli avvocati della sezione "diritto del lavoro" del Tribunale di Roma. Ha letto tutta la lista commentando ogni nome con un "Con questo vinciamo" o con un "Con questo perdiamo". Per fortuna, siamo capitati con uno con il quale avremmo dovuto vincere e abbiamo effettivamente vinto.

This reply was deleted.