NOTICIAS CON SUDOR DE PUEBLO
UBCH TV.
NEWS FRONT
UBCH TV.1-09-2019. También esta
semana, el Departamento de Defensa de EE. UU. Expresó su preocupación por el
«riesgo real» de quedarse atrás de China en el campo de la inteligencia
artificial avanzada, dada la maquinaria de asociaciones bien engrasada del país
entre el sector tecnológico civil y el ejército.
El ejército de
los Estados Unidos debería recibir más recursos para invertir en tecnología que
pueda identificar y desarmar el posible «riesgo de seguridad nacional» causado
por las falsificaciones profundas, dijo el director del Centro de Inteligencia
Artificial del Pentágono, el teniente general Jack Shanahan.
En una
conferencia dedicada a la Inteligencia Artificial en el Laboratorio de Física
Aplicada John Hopkins en Laurel, Maryland, la semana pasada, Shanahan alegó que
los adversarios de EE. UU. Ya habían utilizado otras ‘herramientas de
información’ en elecciones anteriores para «causar fricción y caos», con los
deepfakes convirtiéndose en otra herramienta en su arsenal
«Vimos fuertes
indicios de cómo esto podría desarrollarse en las elecciones de 2016, y tenemos
todas las expectativas de que, si no se controla, nos volverá a pasar», dijo,
sus comentarios citados por la publicación de defensa de inteligencia C4ISRNET.
«Como
departamento, al menos hablando para el Departamento de Defensa, estamos
diciendo que también es un problema de seguridad nacional. Tenemos que invertir
mucho en ello. Muchas empresas comerciales hacen esto todos los días. El nivel
de sofisticación parece ser exponencial ”, agregó Shanahan.
El funcionario
del Pentágono señaló el programa Forense de Medios de la Agencia de Proyectos
de Investigación Avanzada de Defensa como una forma en que los militares ya
están abordando el problema.
«Está surgiendo
formas de etiquetar y llamar [desinformación]», dijo Shanahan. Una vez
completado, se espera que el proyecto DARPA permita a los militares detectar la
manipulación de imágenes y videos e incluso descubrir cómo se crearon.
DARPA no son los
únicos que trabajan en tecnología para desafiar las falsificaciones profundas:
una forma de falsificación asistida por computadora que utiliza un algoritmo de
aprendizaje automático para crear contenido falso hiperrealista a través de la
tecnología de intercambio facial. El mes pasado, Sputnik informó que los
investigadores de la Universidad de California en Riverside y la firma
tecnológica de I + D Mayachitra se habían unido para crear una nueva
arquitectura de aprendizaje profundo para detectar la manipulación de cambio de
contenido basada en pequeñas distorsiones invisibles para el ojo humano.
Se teme que,
además de su capacidad para cambiar las percepciones de las personas antes de
las elecciones, las falsificaciones profundas también pueden influir en el
comportamiento del grupo objetivo con fines de guerra psicológica, con
objetivos que van desde provocar un pánico financiero hasta comenzar guerras.
Sin embargo, con respecto al trabajo del Pentágono en programas para
contrarrestar las falsificaciones profundas, no está claro cuán exitosos serán
los esfuerzos de DARPA y si el DoD en sí mismo puede no intentar usar la
tecnología para sus propios fines.
Deepfakes llegó a
la fama por primera vez en 2017, generando serias preocupaciones sobre la
capacidad de utilizar las manipulaciones para crear noticias falsas, videos
pornográficos falsos con políticos o celebridades y otro contenido malicioso.
Además de las preocupaciones sobre las falsificaciones
profundas, el Centro Conjunto de Inteligencia Artificial del Pentágono expresó
su preocupación la semana pasada sobre el poder de la estrategia de «fusión
civil-militar» de China, que promueve asociaciones entre el sector tecnológico
civil y el ejército. Shanahan dijo que Estados Unidos no tiene nada similar en
su lugar, y se arriesga a quedarse atrás de China en inteligencia artificial a
largo plazo
No hay comentarios:
Publicar un comentario