Une simulation d’un mort créée par l’intelligence artificielle a abordé son tueur dans un tribunal de l’Arizona ce mois-ci, dans ce qui semble être l’un des premiers cas de ce type dans une salle d’audience américaine.
Fabriquée par sa famille, un avatar généré par l’AI de Christopher Pelkey a pris la parole devant la Cour supérieure du comté de Maricopa le 1er mai, alors qu’un juge était prêt à condamner Gabriel Paul Horcasitas pour avoir tiré et tué Pelkey dans un incident de la route de la route en 2021.
« C’est une honte que nous nous sommes rencontrés ce jour-là dans ces circonstances », explique le Pelkey Avatar dans la vidéo. « Dans une autre vie, nous aurions probablement pu être amis. »
L’avatar Pelkey apparaît dans la vidéo arborant une longue barbe et un sweat vert sur une toile de fond blanche. Il prévient au début qu’il est une version Ai-Version de Pelkey, qui est apparente à travers les lacunes de l’audio et un mouvement légèrement incompatible de sa bouche.
Pelkey, un vétéran de l’armée américaine, avait 37 ans au moment de la fusillade.
La vidéo a marqué une nouvelle utilisation de l’IA dans le système juridique, qui a vu la technologie en croissance rapide avec un mélange de fascination et de appréhension.
Les tribunaux ont généralement des règles strictes sur les types d’informations qui peuvent être présentées dans les procédures judiciaires, et plusieurs avocats ont été sanctionnés après que les systèmes d’IA ont créé de faux cas qu’ils ont cités dans les mémoires.
Les proches de Pelkey ont reçu plus de latitude pour présenter la vidéo générée par l’IA au juge lors de la condamnation, étant donné que ce n’était pas des preuves dans l’affaire. Horcasitas, qui a été condamné à 10,5 ans de prison d’État, avait déjà été condamné pour homicide involontaire et en danger.
La sœur de Pelkey, Stacey Wales, a déclaré qu’elle avait scénarisé le message généré par l’IA après avoir lutté pour transmettre des années de chagrin et de douleur dans sa propre déclaration. Elle a dit qu’elle n’était pas prête à pardonner à Horcasitas, mais a estimé que son frère aurait une perspective plus compréhensive.
« Le but était d’humaniser Chris, d’atteindre le juge et de lui faire savoir son impact sur ce monde et qu’il existait », a-t-elle déclaré à Reuters.
L’IA générative, a déclaré le Pays de Galles, n’est « qu’une autre avenue que vous pouvez utiliser pour atteindre quelqu’un ».
Le Pays de Galles a déclaré qu’elle travaillait avec son mari et une amie de la famille, qui travaillent toutes dans l’industrie de la technologie, pour la créer.
Harry Surden, professeur de droit à l’Université du Colorado, a déclaré que l’utilisation du matériel générateur d’IA en cour soulève des préoccupations éthiques, car d’autres peuvent chercher à utiliser ces outils pour jouer sur les émotions des juges et des jurys. Le contenu est une simulation de la réalité, et non la preuve vérifiée que les tribunaux évaluent généralement, a déclaré Surden.
« Ce que nous voyons, c’est que les simulations sont devenues si bonnes qu’elle contourne complètement notre scepticisme naturel et va directement à notre émotion », a-t-il déclaré.