
origen de la imagen:https://www.nbcnews.com/news/us-news/washington-state-judge-blocks-use-ai-enhanced-video-evidence-rcna141932
Un juez del estado de Washington que supervisa un caso de triple asesinato prohibió el uso de video mejorado por inteligencia artificial como evidencia en una decisión que, según expertos, podría ser la primera de su tipo en un tribunal penal de los Estados Unidos.
La decisión, firmada el viernes por el juez de la Corte Superior del Condado de King, Leroy McCullogh, y que fue reportada por primera vez por NBC News, describió la tecnología como novedosa y afirmó que se basa en “métodos opacos para representar lo que el modelo de IA ‘piensa’ que debería mostrarse.”
“Este tribunal considera que la admisión de esta evidencia mejorada por IA conduciría a una confusión de los temas y a una confusión del testimonio de los testigos presenciales, y podría resultar en un juicio prolongado sobre el proceso no revisado por pares utilizado por el modelo de IA,” escribió el juez en la decisión que fue publicada en el registro judicial el lunes.
La decisión se produce mientras que la inteligencia artificial y sus usos, incluyendo la proliferación de ‘deepfakes’ en las redes sociales y en campañas políticas, evolucionan rápidamente, y mientras los legisladores estatales y federales lidian con los peligros potenciales que plantea la tecnología.
Los abogados de un hombre acusado de abrir fuego frente a un bar en el área de Seattle en 2021, matando a tres personas e hiriendo a dos, habían solicitado introducir un video de teléfono celular mejorado por un software de aprendizaje automático, según muestran los documentos del tribunal.
El aprendizaje automático es un campo particular dentro de la inteligencia artificial que ha cobrado prominencia en los últimos años como base de la mayoría de los sistemas modernos de IA.
Los fiscales en el caso afirmaron que no parecía haber un precedente legal que permitiera la tecnología en un tribunal penal de EE. UU., según una presentación de febrero en la Corte Superior del Condado de King.
Jonathan Hak, un abogado y especialista en Canadá en evidencia basada en imágenes en los Estados Unidos y en otros lugares, dijo que este era el primer caso que conocía donde un tribunal penal había tomado una posición sobre el asunto.
El acusado, Joshua Puloka, de 46 años, ha afirmado defensa propia en los asesinatos del 26 de septiembre, y sus abogados dijeron en un documento del tribunal en febrero que había estado tratando de desescalar una situación violenta cuando fue agredido y estalló el tiroteo.
Puloka respondió al fuego, alcanzando fatalmente a transeúntes inocentes, según el documento.
El hombre acusado de agredir a Puloka también fue fatalmente abatido, según muestra una declaración de causa probable.
La mortal confrontación fue capturada en el video de teléfono celular.
Para mejorar el video, los abogados de Puloka recurrieron a un hombre que no había manejado previamente un caso criminal, pero que tenía experiencia en producción y edición de video creativa, según la presentación de los fiscales.
El software que utilizó, desarrollado por la empresa Topaz Labs con sede en Texas, afirma que su tecnología es utilizada por estudios de cine y otros profesionales creativos para “supercargar” videos, según la presentación.
Los abogados de Puloka no respondieron a las solicitudes de comentarios.
En un comunicado, un portavoz de Topaz Labs dijo que la compañía “recomienda encarecidamente” no utilizar su tecnología de IA para aplicaciones forenses o legales.
La oficina del fiscal dijo que el video mejorado predecía imágenes en lugar de reflejar el tamaño, la forma, los bordes y el color capturados en el video original.
Las imágenes mejoradas eran “inexactas, engañosas e infiables,” dice la presentación.
En una declaración para la acusación incluida en el archivo, un analista forense de video que revisó las grabaciones originales y mejoradas dijo que la versión mejorada contenía datos visuales que no estaban en el original.
Además, también se había eliminado información de la versión mejorada, según el experto, Grant Fredericks.
Cada píxel “en el video generado por IA es nuevo, lo que resulta en un video que puede parecer más agradable a la vista de un observador común, pero que contiene la ilusión de claridad y resolución de imagen aumentada que no representa con precisión los eventos de la escena original,” escribió Fredericks en la declaración.
En una presentación separada, los abogados de Puloka contrarrestaron que tales afirmaciones eran “exageradas y sobrestimadas.”
Una comparación de los dos videos muestra que la versión mejorada es una “representación fiel del original,” dice la presentación.
“Y eso es lo que importa.”
En su declaración, Fredericks, quien ha enseñado para el FBI y ha trabajado como analista de video durante 30 años, dijo que no tenía conocimiento de publicaciones revisadas por pares que establecieran una metodología aceptada para las mejoras de video mediante IA.
El FBI no incluye nada sobre este asunto en sus mejores prácticas para el manejo de videos forenses, mencionó.
George Reis, un exinvestigador de escenas del crimen y analista forense de video con experiencia en el sur de California, dijo que era consciente de un puñado de ejemplos de inteligencia artificial utilizada como una herramienta investigativa potencial para aclarar imágenes de matrículas.
Una de las empresas que ha desarrollado tal software, Amped, afirmó en una publicación en febrero que la inteligencia artificial no es lo suficientemente confiable como para utilizarla en la mejora de imágenes en un entorno legal.
La empresa destacó los resultados opacos de la tecnología y los resultados potencialmente sesgados.
“Es una ciencia novedosa,” dijo Reis.
“Debería hacerse investigación al respecto antes de que alguien la use en un trabajo real.
Debería ser revisada por pares.
No estoy seguro de qué nivel será apropiado en algún momento en el futuro para el uso de IA en la clarificación de una fotografía fija o un video, pero en este momento particular es prematuro.”