O reinvigorare surprinzătoare în Arizona: Victima unui atac fatal ia cuvântul în instanță, grație ajutorului inteligenței artificiale, pentru a se confrunta cu ucigașul său
Chris Pelkey a murit în urmă cu trei ani într-un schimb de focuri în Arizona. Cu ajutorul inteligenţei artificiale, el a revenit în instanţă la începutul acestei luni pentru a da o declaraţie în calitate de victimă, în procesul pentru condamnarea ucigaşului său. Membrii familiei au folosit tehnologia avansată pentru a-l recrea pe Pelkey, care avea 37 de ani când a fost ucis, prin înregistrări vocale, videoclipuri şi fotografii.
Sora victimei, Stacey Wales, a declarat că ea a scris cuvintele pe care versiunea AI a fratelui său le-a citit în instanţă, bazându-se pe caracterul iertător pe care îl cunoștea. „Este păcat că m-am întâlnit în acea zi în acele circumstanţe cu Gabriel Horcasitas, omul care m-a împuşcat. În altă viaţă, probabil că am fi putut fi prieteni. Cred în iertare şi într-un Dumnezeu care iartă. Întotdeauna am crezut şi încă mai cred”, a spus versiunea AI a lui Chris Pelkey în instanţă, purtând o şapcă de baseball gri.
Tehnologia a fost utilizată la audierea care a avut loc înainte de pronunţarea sentinţei ucigaşului său, Horcasitas, care fusese deja găsit vinovat de un juriu, după aproape patru ani de la incidentul în care Pelkey a fost împuşcat la un semafor în Arizona.
Reacția judecătorului
Judecătorul Todd Lang, care a supravegheat cazul, a apreciat utilizarea inteligenţei artificiale la audiere, condamnându-l pe Horcasitas la 10 ani şi jumătate de închisoare pentru omor prin imprudenţă. „Mi-a plăcut inteligenţa artificială, vă mulţumesc pentru asta. Oricât de supărat aţi fi, oricât de supărată, pe bună dreptate, este familia, am auzit iertarea. Simt că a fost autentică”, a declarat judecătorul Lang.
Paul Grimm, un judecător federal pensionat şi profesor la Duke Law School, a afirmat că nu este surprins să vadă inteligenţa artificială folosită în cazul lui Horcasitas, observând că instanţele din Arizona au început deja să utilizeze această tehnologie în alte moduri. De exemplu, Curtea Supremă a statului foloseşte un sistem de inteligenţă artificială pentru a face hotărârile mai uşor de înţeles pentru public. Grimm a menţionat că, deoarece a fost utilizată fără prezenţa unui juriu, doar pentru ca un judecător să decidă sentinţa, utilizarea tehnologiei este permisă.
Cu toate acestea, unii experţi, precum Derek Leben, profesor de etică în afaceri la Universitatea Carnegie Mellon, își exprimă îngrijorarea față de utilizarea inteligenţei artificiale și precedentul pe care îl creează acest caz. Deşi Leben nu contestă intenţia sau acţiunile familiei, el se teme că nu toate utilizările AI vor reflecta dorinţele victimei. „Dacă şi alte persoane vor face acest lucru în viitor, oare vom obţine întotdeauna cu fidelitate ceea ce persoana, victima în acest caz, ar fi dorit?” s-a întrebat Leben.

