EN BREF |
|
Le recours à l’intelligence artificielle (IA) dans les tribunaux gagne en popularité, mais il soulève également de nombreuses questions éthiques et légales. L’usage de cette technologie dans les salles d’audience est devenu un sujet de débat brûlant, notamment avec l’utilisation de deepfakes pour recréer des témoignages de victimes. Cette pratique innovante, bien que controversée, montre à quel point l’IA peut influencer le système judiciaire. Examinons de plus près certains cas récents et les implications de cette technologie sur le droit et la société.
L’impact révolutionnaire d’un clone numérique dans une déclaration de victime
Récemment, une famille en Arizona a utilisé un clone numérique de Chris Pelkey pour faire une déclaration d’impact sur la victime dans une affaire de rage au volant. Pelkey, un vétéran de l’armée, a été tragiquement tué par balle en 2021. La vidéo présentée lors du procès montrait une version générée par IA de Pelkey s’adressant directement à son présumé meurtrier, Gabriel Horcasitas. Le clone numérique, vêtu d’un sweat à capuche vert et d’une casquette de baseball grise, a été créé à partir de vidéos passées de Pelkey. Un filtre simulant le vieillissement a été appliqué pour représenter ce à quoi il aurait pu ressembler aujourd’hui.
La vidéo a eu un impact significatif sur le tribunal, le juge ayant déclaré que la déclaration générée par IA avait partiellement influencé sa décision de condamner Horcasitas à 10,5 ans de prison pour homicide involontaire. Cette utilisation novatrice de l’IA marque la première utilisation connue d’un deepfake génératif dans une déclaration d’impact de victime. Cela soulève des questions sur le rôle potentiel de l’IA dans le système judiciaire et comment elle pourrait transformer la manière dont les victimes et leurs familles s’expriment dans les affaires pénales.
Un cas controversé à New York impliquant un deepfake
Peu de temps après l’affaire Pelkey, un homme de 74 ans, Jerome Dewald, a utilisé un deepfake pour soutenir sa défense dans un tribunal de l’État de New York. Accusé dans un litige contractuel, Dewald a présenté une vidéo montrant un homme en pull et chemise bleue s’adressant directement à la caméra. Le juge, déconcerté, a demandé si la personne dans la vidéo était l’avocat de Dewald. En réalité, il s’agissait d’un deepfake généré par IA.
Dewald a expliqué qu’il avait créé cette vidéo pour articuler plus clairement sa défense, bien qu’il ait échoué à informer le tribunal de l’utilisation de l’IA. Cette situation a entraîné une réprimande du juge, qui a souligné l’importance de divulguer l’usage de la technologie dans les procédures judiciaires. Dewald a écrit aux juges affirmant que son intention n’était pas de tromper, mais de présenter ses arguments de la manière la plus efficace possible. Cet incident démontre les défis posés par l’utilisation de l’IA dans les tribunaux, où la frontière entre la transparence et la tromperie peut devenir floue.
Ce tapis roulant titanesque de 500 km défie l’imagination et redéfinit la livraison express au Japon
Les hallucinations d’IA dans le domaine juridique
Le recours à l’IA dans les procédures légales a également entraîné des erreurs notables, notamment des cas de « hallucinations » où les modèles d’IA génèrent de fausses affaires judiciaires. Par exemple, deux avocats de New York ont été sanctionnés pour avoir soumis un mémoire contenant six citations d’affaires fictives créées par ChatGPT. De même, Michael Cohen, ancien avocat personnel de Donald Trump, a envoyé des cas juridiques générés par IA à son avocat, qui ont été inclus dans une motion fédérale.
Ces incidents soulèvent des préoccupations quant à l’exactitude et à la fiabilité des outils d’IA dans le cadre juridique. Bien que l’IA puisse accélérer la recherche et la rédaction juridiques, elle nécessite une vérification minutieuse pour éviter les informations erronées. Les avocats doivent être conscients des limitations de cette technologie et s’assurer que les informations qu’ils utilisent sont correctes et vérifiables. Ces événements démontrent que l’intégration de l’IA dans le droit doit être gérée avec prudence et rigueur.
L’avenir de l’IA dans les tribunaux
Aujourd’hui, l’usage de l’IA dans les tribunaux reste controversé, malgré ses avantages potentiels. Un panel judiciaire fédéral a récemment sollicité des commentaires publics sur une règle visant à garantir que les preuves assistées par IA respectent les mêmes normes que celles présentées par des experts humains. Le juge en chef de la Cour suprême, John Roberts, a également abordé ce sujet dans son rapport annuel de 2023, soulignant à la fois les avantages et les risques de l’IA dans le système judiciaire.
L’IA pourrait offrir une assistance précieuse aux personnes ayant des ressources financières limitées, mais son utilisation doit être soigneusement encadrée pour éviter les atteintes à la vie privée et la déshumanisation du droit. À mesure que la technologie progresse, il est impératif d’établir des directives claires sur son utilisation dans les salles d’audience. Quel sera le rôle de l’IA dans la justice de demain, et comment garantirons-nous qu’elle serve l’intérêt de tous sans compromettre l’intégrité du système judiciaire ?
Ça vous a plu ? 4.6/5 (24)
Ça alors, comment un homme peut-il parler après avoir été tué ? 😮