In Arizona, la vittima di un omicidio è intervenuta in tribunale per rivolgersi al suo assassino grazie all’intelligenza artificiale, che ha creato un video posticcio ad hoc. Rischi in vista
In Arizona, la vittima di un omicidio è intervenuta in tribunale per rivolgersi al suo assassino. Più delle parole in fin dei conti gentili e colme di rimpianto che ha rivolto al perpetratore, ha fatto notizia il modo in cui detto cadavere è stato rianimato: grazie all’intelligenza artificiale, creando un video posticcio ad hoc, in cui il morto sembrava proprio vivo. Per fortuna non sono un filosofo, quindi posso lasciar decidere ad altri se sia vero o falso un discorso generato da un algoritmo in grado di conoscere un essere umano molto meglio dei suoi più cari affetti, e forse anche di lui stesso; mi interessa di più l’aspetto giuridico della trovata.
Stavolta, per fortuna, nel suo discorso tenue e amaro la vittima è stata cortese. Cosa accadrà, però, quando le vittime si rivolgeranno ad assassini o sospetti svolgendo il ruolo di pubblica accusa? Il parere autogenerato della vittima, verosimile ma inesistente, peserà sul giudizio di condanna? Un video in cui il morto racconta come è stato ucciso varrà come prova testimoniale? Soprattutto, noi che amiamo praticare la giustizia emotiva, noi che vogliamo buttare le chiavi delle celle e condanniamo a priori chiunque abbia l’aria colpevole, noi che gridiamo al tradimento quando il codice penale viene applicato alla lettera e insultiamo i giudici se la motivazione di una sentenza non coincide con ciò che la nostra coscienza desidera – ecco, chi potrà più trattenerci quando sarà la vittima stessa a incitarci a diventare i suoi giustizieri?