1. Ir al contenido
  2. Ir al menú principal
  3. Ir a más sitios de DW

G7 acuerda código de conducta para desarrolladores de IA

30 de octubre de 2023

Los líderes del influyente grupo busca resguardar la privacidad siguiendo protocolos y revisiones que protejan del mal uso de esta tecnología.

Encuentro del G7 en Japón.
El último encuentro del G7 en Japón creo un modelo a seguir para resguardar el uso de la Inteligencia Artificial.Imagen: Naoki Ueda/AP/picture alliance

Los países del G7 acordaron un código de conducta para las empresas e instituciones que desarrollen sistemas de inteligencia artificial (IA), dirigido a mitigar riesgos derivados de esta tecnología como la desinformación y la vulneración de la privacidad o la propiedad intelectual.

Los líderes del Grupo de los Siete (Alemania, Canadá, Estados Unidos, Francia, Italia, Japón y el Reino Unido) respaldaron el conjunto de orientaciones para el sector de la inteligencia artificial bautizado como el "Proceso de IA de Hiroshima", según informó la presidencia nipona de turno.

El G7 destaca el "potencial innovador y transformador" de los sistemas avanzados de IA, y en particular, de modelos generativos como el bot de conversación ChatGPT, y al mismo tiempo reconoce la necesidad de "proteger a los individuos, la sociedad y los principios compartidos", además de "mantener a la humanidad en el centro".

Para ello, el Grupo de los Siete puso en marcha el pasado mayo en la cumbre de Hiroshima una iniciativa que ha derivado en la elaboración de once principios para empresas y organizaciones involucradas en el desarrollo de sistemas de IA.

Entre las medidas recomendadas figura contar con la supervisión de observadores independientes en todas las fases de desarrollo y salida al mercado de la IA, y de que sus creadores detecten posibles riesgos de uso indebido y corrijan esas vulnerabilidades. De cara a una mayor transparencia de estos modelos, se pide a los desarrolladores informar de forma pública sobre las "capacidades y limitaciones" y los "dominios de uso apropiado e inapropiado" de sus sistemas.

También se llama a poner en marcha "mecanismos de autentificación" como pueden ser la creación de "marcas de agua" digitales que permitan a los usuarios identificar los textos, imágenes o vídeos generados por inteligencias artificiales.

El Grupo de los Siete también fomentará el cumplimiento de esta hoja de ruta a través de la cooperación y consulta con diferentes organismos internacionales como la Alianza Global sobre Inteligencia Artificial (GPAI, de sus siglas en inglés), la Organización para la Cooperación y el Desarrollo Económicos (OECD) y con actores públicos y privados, así como con países que no forman parte del G7.

mn (efe, Reuters)

 

Ir a la siguiente sección Descubra más