El Impacto de la IA en la Legislación y la Veracidad de las Fuentes de Información
Una demanda federal en Minnesota sobre la “Utilización de Tecnología Deep Fake para Influenciar una Elección” ahora enfrenta directamente la influencia de la Inteligencia Artificial. En una reciente presentación, los abogados que desafían la ley dicen que una declaración de apoyo muestra señales de contener texto generado por IA.
El uso de IA y tecnología deep fake en contextos legales plantea serias cuestiones sobre la veracidad de las fuentes. Este caso en Minnesota subraya la necesidad de una mayor vigilancia y precisión en el uso de la inteligencia artificial para asegurar la integridad de la información en procedimientos judiciales.

Leyes Sobre Tecnologías Deep Fake
La ley de Minnesota denominada “Utilización de Tecnología Deep Fake para Influenciar una Elección” es ahora el foco principal de un caso judicial que explora la influencia de la IA en la manipulación de la información. La ley busca regular el uso de deep fakes en procesos electorales, intentando mantener la integridad del proceso democrático.
Declaraciones Bajo Sospecha
En una reciente presentación, hubo sospechas respecto a una declaración que apoyaba la ley. Los abogados han señalado que el documento contiene fuentes inexistentes que parecen haber sido alucinadas por ChatGPT o algún otro modelo de lenguaje de gran escala (LLM).
Los Hallazgos del Minnesota Reformer
Según el Minnesota Reformer, el documento presentado por el director fundador de Stanford Social Media Lab, Jeff Hancock, incluía estudios que no existen. La declaración citaba un estudio de 2023 en el Journal of Information Technology & Politics, pero no se encontró registro de este estudio o cualquier otra publicación similar.
Reacción de los Demandantes
Los abogados de la representación del Estado de Minnesota, Mary Franson y Christopher Khols, presentaron una solicitud señalando que las citas podrían ser una ‘alucinación’ generada por IA. La presencia de tales inexactitudes llama en duda la integridad de toda la declaración, especialmente cuando gran parte del comentario carece de metodología o lógica analítica.
Fuente: theverge.com
Más noticias:
- Rediseño de la Aplicación Fotos en iOS 18
- Cómo Liberar Espacio de Almacenamiento en tu iPhone o iPad
- El OPPO Find X8 Pro llega a España por la puerta grande
¡Que sorpresa! 🤣 Ya no se puede confiar ni en una declaración legal, todo es IA. El futuro es ahora, y es un poco inquietante.
Es bueno ver que se está buscando mayor precisión en el uso de la IA en contextos legales.
¿Cómo se puede verificar la veracidad de la información proveniente de un modelo de lenguaje como ChatGPT si este puede generar fuentes falsas?
¡Texto generado por IA como argumento jurídico? 🤦♂️ Parecen más telenovelas que justicia.