20.6 C
San Pedro Sula
domingo, diciembre 22, 2024

OpenAI limita el uso de sus herramientas a redes de influencia de Rusia y China

Debes leer

Tecnología. OpenAI ha cortado cinco operaciones encubiertas de influencia en los últimos tres meses, incluyendo redes en Rusia, China, Irán e Israel que accedieron a los productos de inteligencia artificial del fabricante de ChatGPT.

De acuerdo con el informe, las redes trataron de manipular la opinión pública o dar forma a los resultados políticos mientras ocultaban su verdadera identidad.

La nueva información del fabricante de ChatGPT llega en un momento de preocupación generalizada por el papel de la IA en las elecciones mundiales previstas para este año.

En sus conclusiones, OpenAI enumeró las formas en que las redes de influencia han utilizado sus herramientas para engañar a la gente de forma más eficaz, incluido el uso de la IA para generar texto e imágenes en mayor volumen y con menos errores lingüísticos cosa posible solo con humanos.

OpenAI limita el uso de sus herramientas a las redes de influencia de Rusia y China
Bad Grammar es un grupo ruso descubierto gracias a esta investigación que se valió de la IA para expandir sus campañas.

Poco alcance 

Sin embargo, la empresa dijo que, en última instancia, en su evaluación, estas campañas no consiguieron aumentar significativamente su alcance como resultado del uso de los servicios de OpenAI.

“Durante el último año y medio ha habido muchas preguntas sobre lo que podría ocurrir si las operaciones de influencia utilizan IA generativa”, dijo Ben Nimmo, investigador principal del equipo de Inteligencia e Investigaciones de OpenAI, en una rueda de prensa el miércoles.

“Con este informe, realmente queremos empezar a rellenar algunos de los espacios en blanco”, añadió.

Lea también:Atlas, la nueva película de Jennifer Lopez contra la inteligencia artificial

La empresa asegura que definió sus objetivos como “operaciones de influencia” encubiertas que son “intentos engañosos de manipular la opinión pública o influir en los resultados políticos sin revelar la verdadera identidad o las intenciones de los actores que están detrás”.

Estos grupos son diferentes de las redes de desinformación, dijo Nimmo, ya que a menudo pueden promover información objetivamente correcta, pero de forma engañosa.

OpenAI limita el uso de sus herramientas a las redes de influencia de Rusia y China
La noticia dejó al descubierto los riesgos del uso malicioso de la IA.

Otras empresas como Meta Platforms Inc. (META) han hecho revelaciones similares sobre operaciones de influencia en el pasado.

OpenAI dijo que está compartiendo indicadores de amenazas con sus homólogos de la industria, y parte del propósito de su informe es ayudar a otros a realizar este tipo de trabajo de detección. La empresa planea compartir más informes en el futuro.

Estás a un paso de recibir nuestro PDF Gratis

- Advertisement -

Última Hora

Hoy en Cronómetro

error: Contenido Protegido