21.6 C
San Pedro Sula
lunes, noviembre 25, 2024

G7 acuerda un código para que los desarrolladores de IA mitiguen riesgos

Debes leer

Internacional. Los países del G7 han acordado este lunes un código de conducta para las empresas e instituciones que desarrollen sistemas de Inteligencia Artificial (IA), dirigido a mitigar riesgos derivados de esta tecnología como la desinformación y la vulneración de la privacidad o la propiedad intelectual.

Los líderes del Grupo de los Siete (Alemania, Canadá, Estados Unidos, Francia, Italia, Japón y el Reino Unido), han respaldado el conjunto de orientaciones para el sector de la Inteligencia Artificial, bautizado como el ‘Proceso de IA de Hiroshima’, según ha informado la presidencia nipona de turno.

G7 acuerda un código para que los desarrolladores de IA mitiguen riesgos
El G7 acuerda un código de conducta para los desarrolladores de IA

Esta hoja de ruta aspira a promover el desarrollo de sistemas de IA «seguros y fiables» a nivel internacional y a «gestionar sus riesgos», según la declaración conjunta, que también llama a todos los actores del sector de la IA a comprometerse a su cumplimiento.

El G7 destaca el «potencial innovador y transformador» de los sistemas avanzados de IA, y en particular, de modelos generativos como el bot de conversación ChatGPT.

Le puede interesar: Iway, el robot con inteligencia artificial que mejora el aprendizaje en escuelas rurales

Al mismo tiempo, reconoce la necesidad de «proteger a los individuos, la sociedad y los principios compartidos». Además de «mantener a la humanidad en el centro».

Para ello, el Grupo de los Siete puso en marcha el pasado mes de mayo, en la cumbre de Hiroshima, una iniciativa que ha derivado en la elaboración de once principios. Para empresas y organizaciones involucradas en el desarrollo de sistemas de IA.

Piden detectar riesgos en estas tecnologías e informar sobre ellos

Entre las medidas recomendadas figura contar con la supervisión de observadores independientes en todas las fases de desarrollo y salida al mercado de las IA. Asimismo de que sus creadores detecten posibles riesgos de uso indebido y corrijan esas vulnerabilidades.

De cara a una mayor transparencia de estos modelos, se pide a los desarrolladores informar de forma pública sobre las «capacidades y limitaciones» y los «dominios de uso apropiado e inapropiado» de sus sistemas.

G7 acuerda un código para que los desarrolladores de IA mitiguen riesgos
Los expertos en la materia han advertido ya de la importancia de establecer un marco regulatorio ante el potencial que tiene esta tecnología.

También se llama poner en marcha «mecanismos de autentificación» como pueden ser la creación de «marcas de agua» digitales. Mismos que permitirán a los usuarios identificar los textos, imágenes o vídeos generados por inteligencias artificiales.

Estas orientaciones serán revisadas de forma periódica cuando sea necesario «para adaptarse a la rápida evolución de la tecnología». Asimismo, en consultas con los actores implicados, según la declaración conjunta.

Estás a un paso de recibir nuestro PDF Gratis

- Advertisement -

Última Hora

Hoy en Cronómetro

error: Contenido Protegido