La Junta de Supervisión insta a Meta a repensar la política respecto a los medios manipulados – Registro del Condado de Orange

Escrito por Ali Swenson | Associated Press

La junta de supervisión critica las políticas del propietario de Facebook, Meta, con respecto a los medios manipulados, calificándolas de “incoherentes” e insuficientes para abordar el flujo de información errónea en línea que ya ha comenzado a apuntar a las elecciones en todo el mundo este año.

El consejo semiindependiente dijo el lunes que su revisión de un video editado del presidente Joe Biden que se difundió en Facebook reveló lagunas en la política. La junta dijo que Meta debería ampliar la política para centrarse no sólo en los vídeos generados por IA, sino también en los medios, independientemente de cómo se creen. Esto incluye grabaciones de audio falsas, que ya han personificado de manera convincente a candidatos políticos en Estados Unidos y otros lugares.

Ver también: El aumento de 197 mil millones de dólares de Meta en un día es el mayor en la historia del mercado de valores

La junta de supervisión de Meta dijo que la compañía también debería aclarar los daños que está tratando de prevenir y debería etiquetar las imágenes, videos y clips de audio como manipulados en lugar de eliminar las publicaciones por completo.

Los comentarios de la junta reflejan el intenso escrutinio que enfrentan muchas empresas de tecnología sobre su manejo de las mentiras electorales en un año en el que los votantes en más de 50 países acuden a las urnas. Mientras tanto los deepfakes de IA como las “falsificaciones baratas” de baja calidad en las redes sociales amenazan con engañar a los votantes, las plataformas están tratando de detectar y responder a publicaciones falsas al tiempo que protegen los derechos de los usuarios a la libre expresión.

Más en las redes sociales: Meta, TikTok, X y otros directores ejecutivos de redes sociales testifican en una acalorada audiencia en el Senado sobre la explotación infantil

“Tal como está, la política no tiene sentido”, dijo el lunes Michael McConnell, copresidente de la Junta de Supervisión, sobre la política Meta en un comunicado. Dijo que la empresa debe llenar los vacíos en la política y al mismo tiempo garantizar que el discurso político esté “protegido inquebrantablemente”.

Meta dijo que está revisando la guía de la junta de supervisión y responderá públicamente a las recomendaciones dentro de 60 días.

El portavoz Corey Chambliss dijo que si bien los deepfakes de audio no se mencionan en la política de medios manipulados de la compañía, son elegibles para verificación y serán etiquetados o degradados si los verificadores los clasifican como falsos o alterados. Añadió que la empresa también toma medidas contra cualquier tipo de contenido si viola los estándares comunitarios de Facebook.

Ver también: X está deteniendo algunas búsquedas de Taylor Swift mientras fotos sinceras y viscerales se vuelven virales

Facebook, que cumplió 20 años esta semana, sigue siendo el sitio de redes sociales más popular para que los estadounidenses obtengan noticias, según el Pew Center. Pero otros sitios de redes sociales, incluidos Instagram, WhatsApp y Threads de Meta, así como X, YouTube y TikTok, también son centros potenciales donde los medios engañosos pueden difundirse y engañar a los votantes.

Meta creó su propia Junta de Supervisión en 2020 para actuar como árbitro del contenido en sus plataformas. Sus recomendaciones actuales se producen después de que revisó un clip editado del presidente Biden y su nieta adulta que era engañoso pero que no violaba políticas específicas de la empresa.

Las imágenes originales mostraban a Biden sosteniendo la pegatina que decía “Yo voté” en lo alto del pecho de su nieta, como se le indicó, y luego besándola en la mejilla. La versión que apareció en Facebook fue editada para eliminar contexto importante, haciendo que pareciera como si la hubiera tocado de manera inapropiada.

El fallo de la junta del lunes confirmó la decisión de Meta de 2023 de dejar el clip de siete segundos en Facebook porque no violaba la política de manipulación de medios existente de la compañía. La política actual de Meta es que eliminará los videos creados con herramientas de inteligencia artificial que distorsionan el discurso de alguien.

“Debido a que el video en esta publicación no fue editado con inteligencia artificial y muestra al presidente Biden haciendo algo que no hizo (en lugar de algo que no dijo), no viola la política existente”, dice el fallo.

La junta recomendó a la empresa que actualizara la política y etiquetara vídeos similares como manipulados en el futuro. Para proteger los derechos de los usuarios a la libre expresión, Meta debería etiquetar el contenido como manipulado en lugar de eliminarlo de la plataforma si no viola ninguna otra política, dijo.

El Consejo también señaló que algunas formas de medios manipulados se crean con fines de humor, parodia o ridículo y deben protegerse. En lugar de centrarse en cómo crear una imagen, un vídeo o un clip de audio distorsionados, la política de la empresa debería centrarse en el daño que pueden causar las publicaciones manipuladas, como la interrupción del proceso electoral, según el fallo.

Meta dijo en su sitio web que acogía con agrado la decisión de la Junta de Supervisión sobre la publicación de Biden y que actualizaría la publicación después de revisar las recomendaciones de la junta.

Meta debe adherirse a las decisiones de la Junta de Supervisión sobre decisiones de contenido específicas, aunque no está obligada a seguir las recomendaciones más amplias de la Junta. Sin embargo, la junta ha pedido a la empresa que realice algunos cambios a lo largo de los años, incluido hacer que los mensajes a los usuarios que violan sus políticas sean más específicos para explicar qué hicieron mal.

Meta es lo suficientemente grande como para ser líder en el etiquetado de contenido manipulado, pero el seguimiento es tan importante como el cambio de políticas, dijo Gene Golbeck, profesor de la Escuela de Estudios de la Información de la Universidad de Maryland.

“¿Van a implementar estos cambios y luego imponerlos ante la presión política de personas que quieren hacer cosas malas? Ésa es la verdadera pregunta”, dijo. “Si hacen estos cambios y no los implementan, entonces Contribuye aún más a la destrucción de la confianza que conlleva la desinformación”.

___

La periodista de tecnología de Associated Press Barbara Ortutay en San Francisco contribuyó a este informe.

___

Associated Press recibe apoyo de muchas fundaciones privadas para mejorar su cobertura explicativa de las elecciones y la democracia. Obtenga más información sobre la Iniciativa por la Democracia de AP aquí. AP es el único responsable de todo el contenido.