Mostrando entradas con la etiqueta Regulación. Mostrar todas las entradas
Mostrando entradas con la etiqueta Regulación. Mostrar todas las entradas

lunes, 8 de enero de 2024

CHINA prohibe la citación de contenido generado por IA

Publicado en Forbes
https://www.forbes.com.mx/china-prohibe-uso-de-ia-generativa-en-declaraciones-de-investigaciones-cientificas/



China prohibe uso de IA generativa en declaraciones de investigaciones científicasLa prohibición también se extiende a la coautoría de la IA generativa en logros científicos, informó el diario oficialista Global TimesEl Ministerio de Ciencia y Tecnología de China emitió unas directrices que prohíben el uso de inteligencia artificial (IA) generativa para la creación directa de declaraciones en documentos de investigaciones científicas.
La prohibición también se extiende a la coautoría de la IA generativa en logros científicos, informó el diario oficialista Global Times.

Las directrices, emitidas en diciembre de 2023 y difundidas ahora, se aplican a investigadores, instituciones de investigación científica, universidades, organizaciones médicas y de salud, y otras entidades relacionadas con este ámbito.

El Ministerio señaló que la prohibición se basa en el rápido desarrollo de las tecnologías emergentes, incluyendo la IA, sobre la cual afirmó que tiene el potencial de revolucionar la investigación científica, pero también plantea desafíos, como la precisión del contenido y la atribución de la autoría.

Las directrices, según las autoridades chinas, tienen como objetivo fomentar el desarrollo saludable de la IA generativa y prevenir riesgos potenciales.

Esta nueva regulación requiere que los investigadores marquen y expliquen el proceso de elaboración de contenidos al usar herramientas generadas por IA, además de asegurar la precisión de los datos y respetar la propiedad intelectual.

A su vez, el organismo subrayó que no es apropiado citar contenido generado por IA como literatura principal, por lo que, de ser necesario, se debe indicar claramente su procedencia.

Las directrices, según las autoridades chinas, tienen como objetivo fomentar el desarrollo saludable de la IA generativa y prevenir riesgos potenciales.

Esta nueva regulación requiere que los investigadores marquen y expliquen el proceso de elaboración de contenidos al usar herramientas generadas por IA, además de asegurar la precisión de los datos y respetar la propiedad intelectual.

A su vez, el organismo subrayó que no es apropiado citar contenido generado por IA como literatura principal, por lo que, de ser necesario, se debe indicar claramente su procedencia.

Las directrices, según las autoridades chinas, tienen como objetivo fomentar el desarrollo saludable de la IA generativa y prevenir riesgos potenciales.

Esta nueva regulación requiere que los investigadores marquen y expliquen el proceso de elaboración de contenidos al usar herramientas generadas por IA, además de asegurar la precisión de los datos y respetar la propiedad intelectual.

A su vez, el organismo subrayó que no es apropiado citar contenido generado por IA como literatura principal, por lo que, de ser necesario, se debe indicar claramente su procedencia.


jueves, 15 de junio de 2023

UNIÓN EUROPEA emite primera ley integral sobre IA en el mundo

 [ información cortesía de F. Turnbull ]


Enmiendas a la propuesta de Ley de Inteligencia Artificial (IA) presentada por la Comisión Europea


Por 499 votos a favor, 28 en contra y 93 abstenciones, el Parlamento Europeo adoptó el jueves el conjunto de Enmiendas en abril de 2021, la primera ley integral sobre IA del mundo.

Tras este paso procedimental, seguirán las negociaciones sobre la forma final de la Ley de IA con los Estados miembros representados en el Consejo de la UE, con el objetivo de alcanzar un acuerdo a finales de este año.

De acuerdo con el comunicado de prensa del Parlamento, la Ley de AI fija obligaciones específicas para los proveedores y los que despliegan herramientas basadas en IA en función de su nivel de riesgo. Se contemplan cuatro niveles:

1.       Riesgo mínimo: Libre utilización de aplicaciones tales como videojuegos basados en la IA o filtros de correo no deseado. La gran mayoría de los sistemas de IA pertenece a esta categoría, en la que las nuevas normas no serán de aplicación porque solo representan un riesgo mínimo para los derechos o la seguridad de los ciudadanos, o ningún riesgo en absoluto.

2.       Riesgo reducido: Los sistemas de IA como los robots conversacionales están sujetos a unas obligaciones mínimas de transparencia, para que quienes interactúen con los contenidos tomen decisiones con conocimiento de causa. El usuario puede entonces decidir si quiere continuar o dejar de utilizar la aplicación.

3.       Riesgo alto:

1.       Las infraestructuras críticas (por ejemplo, el transporte) que puedan poner en peligro la vida y la salud de los ciudadanos.

2.       La educación y formación profesionales que puedan determinar el acceso a la educación y la trayectoria profesional de una persona (por ejemplo, la calificación de exámenes).

3.       Los componentes de seguridad de los productos (por ejemplo, la aplicación de la IA en la cirugía asistida por robots).

4.       El empleo, la gestión de los trabajadores y el acceso al autoempleo (por ejemplo, el software para la clasificación de los currículos en los procesos de selección de personal).

5.       Los servicios públicos y privados esenciales (por ejemplo, las calificaciones crediticias que denieguen a los ciudadanos la oportunidad de obtener un préstamo).

6.       Los asuntos relacionados con la aplicación del Derecho que puedan interferir en los derechos humanos fundamentales (por ejemplo, la evaluación de la fiabilidad de las pruebas).

7.       La gestión de la migración, el asilo y el control fronterizo (por ejemplo, la verificación de la autenticidad de los documentos de viaje).

8.       La administración de justicia y los procesos democráticos (por ejemplo, la aplicación del Derecho a un conjunto concreto de hechos).

9.       Riesgo inaceptable: se prohibirá todo lo que se considere una amenaza clara para los ciudadanos de la UE: desde la clasificación social por parte de los gobiernos a los juguetes que utilicen un asistente de voz que incentive comportamientos peligrosos en los niños. Los eurodiputados añadieron a esta categoría prohibiciones que se refieren a los usos intrusivos y discriminatorios de la IA, como por ejemplo:

10.         los sistemas de identificación biométrica remota, en tiempo real, en espacios públicos;

11.         los sistemas de identificación biométrica remota, a posteriori, con la única excepción de usos policiales en investigaciones por delitos graves y con autorización judicial;

12.         los sistemas de categorización biométrica que utilicen ciertas características identitarias (por ejemplo el género, la raza, la etnia, el estatus de ciudadanía, la religión o la orientación política);

13.         los sistemas policiales predictivos (basados en la elaboración de perfiles, la ubicación o el historial delictivo);

14.         los sistemas de reconocimiento de emociones por las fuerzas de seguridad, en la gestión de fronteras, los lugares de trabajo o las instituciones de enseñanza; y

15.         el rastreo indiscriminado de imágenes faciales sacadas de Internet o de circuitos cerrados de televisión para crear bases de datos de reconocimiento facial (que violan los derechos humanos y el derecho a la intimidad).

 

Los Eurodiputados añadieron también a la lista de riesgos los sistemas de IA utilizados para influir en los votantes y el resultado de las elecciones y en los sistemas de recomendación utilizados por las plataformas de redes sociales que cuenten con más de 45 millones de usuarios.

Los sistemas de IA generativa basados en modelos fundacionales, como ChatGPT, tendrán que cumplir unos requisitos adicionales de transparencia y estar diseñados de forma que no puedan generar contenido ilegal.

Para impulsar la innovación en IA y apoyar a las PYMEs del sector, se contemplan como excepciones los proyectos de investigación y los componentes de IA suministrados con licencias de código abierto. La nueva Ley promueve los llamados “espacios controlados de pruebas”, o entornos reales en los que las empresas pueden probar la inteligencia artificial bajo la supervisión de las autoridades públicas antes de salir al mercado.

Por último, la Ley prevé facilitar a los ciudadanos la presentación de quejas y reclamaciones sobre estos sistemas, y reforma el papel de la Oficina Europea de Inteligencia Artificial, que se encargaría de supervisar la forma en que se aplica el código normativo sobre IA.


Fuentes:

https://artificialintelligenceact.eu/

https://foreignpolicy.com/2023/06/14/eu-ai-act-european-union-chatgpt-regulations-transparency-privacy/

https://es.cointelegraph.com/news/european-union-ai-act-passes-in-parliament




Recompensas, incentivos y/o reconocimientos para los investigadores que practican la Ciencia Abierta

Publicado en blog  Universo abierto https://universoabierto.org/2019/10/14/recompensas-incentivos-y-o-reconocimientos-para-los-investigadore...