Un nuevo proyecto de ley en Nueva York exigiría descargos de responsabilidad sobre el contenido de noticias generado por IA

Un nuevo proyecto de ley en la legislatura del estado de Nueva York exigiría a las organizaciones de noticias etiquetar el material generado por IA y exigiría que profesionales humanos lo revisaran antes de su publicación. El lunes, la senadora Patricia Fahy (demócrata por Albany) y la asambleísta Nily Rozic (demócrata por Nueva York) presentaron el proyecto de ley , denominado Ley de Requisitos Fundamentales de Inteligencia Artificial en las Noticias de Nueva York (NY FAIR News Act).

“En el centro de la industria de las noticias, Nueva York tiene un fuerte interés en preservar el periodismo y proteger a los trabajadores que lo producen”, dijo Rozic en un comunicado anunciando el proyecto de ley .

Un análisis más detallado del proyecto de ley revela algunas regulaciones, principalmente centradas en la transparencia de la IA, tanto para el público como en las redacciones. Por ejemplo, la ley exigiría que las organizaciones de noticias incluyan descargos de responsabilidad en cualquier contenido publicado que esté “compuesto, creado o creado sustancialmente mediante el uso de inteligencia artificial generativa”.

 

Las exenciones de responsabilidad de la IA para los lectores han sido objeto de un intenso debate en el sector informativo , y algunos críticos argumentan que dichas etiquetas alienan al público, incluso cuando la IA generativa solo se utiliza como herramienta de asistencia. El proyecto de ley incluye una excepción que permitiría excluir de la ley el material sujeto a derechos de autor. (La Oficina de Derechos de Autor de EE. UU. ha dictaminado que las obras generadas exclusivamente por sistemas de IA no son elegibles para derechos de autor, pero permite un margen de maniobra para las obras que muestran indicios de “autoría humana”).

El proyecto de ley también exige que las organizaciones de noticias revelen a los periodistas y otros profesionales de los medios en sus salas de redacción cuándo se utiliza la IA y cómo. Todo contenido informativo creado con IA generativa debe ser revisado por un empleado humano “con control editorial” antes de su publicación. Esto aplica no solo a los artículos periodísticos, sino también al audio, las imágenes y otros elementos visuales.

Además, el proyecto de ley contiene un lenguaje que requiere que las organizaciones de noticias creen salvaguardas que protejan el material confidencial (principalmente, información sobre las fuentes) para que las tecnologías de IA no puedan acceder a él.

Los legisladores estatales destacaron dos razones principales para proponer la Ley NY FAIR News. En primer lugar, afirman que el contenido generado por IA puede ser “falso o engañoso”. En segundo lugar, argumentan que el contenido generado por IA “plagia” al derivar contenido de fuentes originales “sin permiso ni citación adecuada”.

“Quizás una de las industrias más expuestas al uso de inteligencia artificial sea el periodismo y, en consecuencia, la confianza del público en la precisión de las noticias”, declaró el senador Fahy. “Más del 76 % de los estadounidenses están preocupados por la posibilidad de que la IA robe o reproduzca información periodística y de noticias locales”.

El proyecto de ley fue anunciado con amplio respaldo de sindicatos de toda la industria de las noticias, incluidos WGA-East, SAG-AFTRA y DGA.

Jennifer Sheehan, portavoz de NewsGuild de Nueva York, confirmó que NewsGuild se ha estado reuniendo con esta coalición laboral para discutir las preocupaciones compartidas en torno a la adopción de IA y trabajar para sacar adelante el proyecto de ley.

Compartir
Editor
Editor