Gente de la Safor

Bienvenidos a Spain News Today.

Una nueva herramienta permite a los artistas «envenenar» sus obras de arte para disuadir a las empresas de inteligencia artificial

Una nueva herramienta permite a los artistas «envenenar» sus obras de arte para disuadir a las empresas de inteligencia artificial

Un robot y una joven frente a frente.

imaginar | E+ | imágenes falsas

Los artistas que quieren compartir sus obras de arte a menudo se enfrentan a una decisión difícil: mantenerlas fuera de línea o publicarlas en las redes sociales y correr el riesgo de que se utilicen para entrenar generadores de imágenes de IA ávidos de datos.

Pero es posible que pronto una nueva herramienta pueda ayudar a los artistas a disuadir a las empresas de inteligencia artificial de utilizar sus obras de arte sin permiso.

Se llama «Nightshade» y fue desarrollado por un equipo de investigadores de la Universidad de Chicago. Funciona “envenenando” la creatividad del artista cambiando sutilmente los píxeles de la imagen para que los modelos de IA no puedan determinar con precisión lo que representa la imagen, según Verge. Revisión de tecnología del MIT.

Aunque el ojo humano no puede detectar estos pequeños cambios, su objetivo es hacer que el modelo de aprendizaje automático etiquete incorrectamente la imagen como algo distinto de lo que es. Dado que estos modelos de IA se basan en datos precisos, este proceso de «envenenamiento» hará que la imagen sea inútil para fines de entrenamiento.

Si se extraen de la web suficientes imágenes «envenenadas» y se utilizan para entrenar un generador de imágenes de IA, es posible que el modelo de IA en sí no pueda producir imágenes precisas.

Por ejemplo, los investigadores alimentaron Stable Diffusion, un generador de imágenes de IA, a un modelo de IA que generaba 50 imágenes «tóxicas» de perros, y luego le pidieron que generara nuevas imágenes de perros. Las imágenes creadas mostraban animales con demasiadas extremidades o rostros caricaturescos que se parecían un poco a perros, según MIT Technology Review.

READ  Louis Tomlinson y BLACKPINK debutan en la lista Hot Trending Songs - Billboard

Después de que los investigadores alimentaron a Stable Diffusion 300 con imágenes “tóxicas” de perros, finalmente comenzó a producir imágenes de gatos. Stable Diffusion no respondió a la solicitud de comentarios de CNBC Make It.

En la superficie, los generadores de arte con IA parecen crear imágenes de la nada basándose en cualquier indicación que alguien les dé.

Pero no es magia ayudar a estos modelos generativos de IA a crear imágenes realistas de una jirafa rosa o un castillo submarino, son datos de entrenamiento y muchos más.

Las empresas de inteligencia artificial entrenan sus modelos con enormes conjuntos de datos, lo que ayuda a los modelos a identificar qué imágenes están asociadas con palabras. Para que un modelo de IA produzca correctamente una imagen de una jirafa rosa, debe estar entrenado para reconocer correctamente imágenes de jirafas y el color rosa.

Gran parte de los datos utilizados para entrenar muchos sistemas de IA generativa se extraen de la web. Aunque en Estados Unidos es legal que las empresas recopilen datos de sitios web de acceso público y los utilicen para diversos fines, se complica cuando se trata de obras de arte, ya que los artistas suelen poseer los derechos de autor de sus obras y, a veces… No quiero que su obra de arte se utilice para entrenar un modelo de IA.

Si bien los artistas pueden inscribirse en “listas de exclusión voluntaria” o en “directivas de no raspado”, a menudo resulta difícil obligar a las empresas a adherirse a estas directivas. Glaseado en UChicagodijo el equipo de investigadores que creó Nightshade en un hilo del 24 de octubre en X, anteriormente conocido como Twitter.

READ  Se anuncia la fecha de lanzamiento de Motorola Edge 30 India

«Ninguno de estos mecanismos es ejecutable, ni siquiera verificable», dijeron en un hilo del 24 de octubre. «Las empresas han demostrado que pueden ignorar ciegamente las opciones de exclusión voluntaria». «Pero incluso si estuvieran de acuerdo y actuaran de manera diferente, nadie puede verificarlo o probarlo (al menos no hoy). Estas herramientas son desdentadas», añadió.

En última instancia, los investigadores esperan que Nightshade ayude a los artistas a proteger su arte.

Los investigadores aún no han lanzado su herramienta Nightshade al público, pero han enviado su trabajo para revisión por pares y esperan que esté disponible pronto, dijo Glaze de UChicago a X.

No te pierdas: ¿Quieres ser más inteligente y tener más éxito en tu dinero, tu trabajo y tu vida? ¡Suscríbete a nuestro nuevo boletín!

Obtiene Guía gratuita de Warren Buffett para invertir en CNBCque resume los mejores consejos del multimillonario para los inversores cotidianos, lo que se debe y no se debe hacer y tres principios de inversión clave en una guía clara y sencilla.

pagando: La inteligencia artificial es la última palabra de moda en tecnología, pero antes de invertir, conozca estos cuatro términos