Información

Los deepfakes de IA son ahora más fáciles de hacer que nunca, apuntando a un futuro siniestro

Los deepfakes de IA son ahora más fáciles de hacer que nunca, apuntando a un futuro siniestro


We are searching data for your request:

Forums and discussions:
Manuals and reference books:
Data from registers:
Wait the end of the search in all databases.
Upon completion, a link will appear to access the found materials.

En un desarrollo inquietante, los investigadores han diseñado una nueva técnica para producir deepfakes de IA que solo requieren ingresar el texto que desea que la persona diga.

La nueva tecnología inquietante sigue mejorando sin ninguna razón justificable

Los investigadores han desarrollado un nuevo software de IA deepfake que puede editar videos para hacer que una persona diga lo que quiera simplemente escribiendo lo que quiere que diga. Este es el siguiente paso adelante en una tecnología que no tiene ninguna utilidad social positiva real excepto para ayudar a los estudios de cine a ahorrar dinero, pero que está garantizado que los gobiernos autoritarios de todo el mundo la utilizarán indebidamente para desacreditar las voces disidentes, generar pornografía de venganza y fomentar el conflicto social.

RELACIONADO: ESTA PERSONA NO EXISTE SITIO WEB ES UNA MIRADA CREYENTE AL FUTURO

Los científicos de la Universidad de Stanford, la Universidad de Princeton, el Instituto Max Planck de Informática y Adobe Research han seguido adelante y han demostrado un caso prima facie de por qué las personas desconfían de la tecnología al desarrollar una nueva plataforma de software que puede permitirle editar la transcripción de texto de la grabación de alguien. discurso para alterar el video y decir algo que en realidad no dijeron.

La tecnología funciona al hacer coincidir un fonema, el término de procesamiento del lenguaje natural para diferentes sonidos, con un visime, la forma facial que esos fonemas hacen cuando la persona habla un fonema, y ​​luego usa una IA para generar el nuevo video basado en una transcripción de lo que dijo la persona. Al editar la transcripción, se editará el video de la persona para que coincida con el texto alterado.

Según los investigadores, "Nuestro enfoque de edición basado en texto sienta las bases para mejores herramientas de edición para la posproducción de películas. Las escenas de diálogo filmadas a menudo requieren reprogramación o edición en función de pequeños cambios en el guión, lo que actualmente requiere un tedioso trabajo manual. Nuestra técnica de edición También permite una fácil adaptación del contenido de video audiovisual a audiencias objetivo específicas: por ejemplo, los videos de instrucción se pueden ajustar a audiencias de diferentes orígenes, o un video de narrador puede adaptarse a niños de diferentes grupos de edad basándose únicamente en ediciones de guiones textuales. En resumen, nuestro trabajo se desarrolló con el propósito de contar historias ".

Los investigadores reconocen el potencial de los malos actores para usar su tecnología con propósitos nefastos y ofrecen algunas soluciones potenciales a este problema inevitable.

"Aunque los métodos para la manipulación de imágenes y videos son tan antiguos como los propios medios", escriben los investigadores [PDF], "los riesgos de abuso aumentan cuando se aplican a un modo de comunicación que a veces se considera evidencia autorizada de pensamientos e intenciones Reconocemos que los malhechores pueden utilizar esas tecnologías para falsificar declaraciones personales y difamar a personas destacadas. Nos preocupa ese engaño y mal uso.

"Por lo tanto", continúan, "creemos que es fundamental que el video sintetizado con nuestra herramienta se presente claramente como sintético. El hecho de que el video esté sintetizado puede ser obvio por contexto (p. Ej., Si el público entiende que está viendo una película de ficción). , expresado directamente en el video o señalado mediante una marca de agua. También creemos que es esencial obtener el permiso de los artistas intérpretes o ejecutantes para cualquier alteración antes de compartir un video resultante con una amplia audiencia. Por último, es importante que nosotros, como comunidad, sigamos desarrollándonos técnicas forenses, de huellas dactilares y de verificación (digitales y no digitales) para identificar videos manipulados. Estas medidas de protección reducirían el potencial de uso indebido y permitirían usos creativos de tecnologías de edición de videos como la nuestra ".

Tomemos estos uno a la vez.

En primer lugar, sugerir que los deepfakes deberían presentarse claramente como tales muestra una comprensión increíblemente ingenua de la propaganda. Stalin habría encontrado pintorescas tales advertencias y también lo serán todos los gobiernos autoritarios o movimientos políticos en el futuro que utilicen esta tecnología para atacar a disidentes, oponentes políticos y minorías étnicas o religiosas.

En segundo lugar, si una IA puede generar videos falsos, una red de IA puede eliminar una marca de agua aún más fácilmente. Esta no es una solución.

En tercer lugar, el consentimiento para que se modifique su discurso como intérprete es ciertamente algo positivo en la industria del cine, pero esto no significa nada si alguien se propone crear una falsificación ilícita. Los malos actores no buscan el consentimiento para crear una celebridad falsa o porno de venganza, o para calumniar y empañar a otros por una agenda.

Por último, crear herramientas para detectar falsificaciones es absolutamente inútil cuando se trata de propaganda. Los protocolos de los ancianos de Sion es una falsificación zarista de más de un siglo de antigüedad y ha sido desacreditada como una falsificación durante el mismo tiempo, pero todavía se utiliza para fomentar con éxito el antisemitismo en todo el mundo. para este día. ¿Cuánto tiempo antes de que comiencen a circular videos en línea de George Soros hablando sobre el uso de la sangre de niños cristianos para pasteles judíos? ¿De verdad se supone que debemos creer que demostrar que estos videos son deepfakes es todo lo que se necesita para evitar que estos videos causen un daño increíble?

Esta tecnología va a matar a poblaciones enteras

La industria de la tecnología está acostumbrada a ser adorada como la salvadora de nuestro tiempo y dinero, y se enorgullece de una ética empresarial que bordea casi un Bioshock-nivel de narcisismo objetivista, pero las grietas en su imagen pública comienzan a extenderse. Los conductores de Uber y Lyft se están acercando al punto de una revuelta abierta por los salarios de pobreza. Facebook está tratando desesperadamente, ridículamente, de cambiar su nombre como una "red centrada en la privacidad" incluso mientras continúa derramando datos personales en el mundo como un borracho en un bar tratando de aferrarse a esa última pinta de cerveza. Ahora, los investigadores que trabajan en deepfakes de IA pueden decir con seriedad que la respuesta al mal uso propagandístico de su tecnología es una marca de agua o confiar en otra tecnología para salvarnos de los peligros de la tecnología que están creando.

Como las elecciones presidenciales estadounidenses de 2016 le mostraron al mundo, la tecnología de la información de bajo costo relativo puede tener un impacto descomunal, y el valor propagandístico de las deepfakes en todo el mundo es espantoso. Tampoco tenemos que esperar para ver cómo se desarrolla esto; puede que ya esté sucediendo. Un video reciente de Nochevieja del presidente de Gabón, Ali Bongo Ondimba, provocó una crisis política después de que algunos críticos, incluido el ejército del país, desafiaran el video como un deepfake destinado a ocultar la condición actual del presidente.

No está claro si el video es un deepfake o no, y honestamente no viene al caso. El hecho de que exista esta tecnología daña de cualquier manera. Los videos falsos se pueden usar para desacreditar a las figuras de la oposición, apuntalar a los líderes que fracasan o difundir otra información errónea; o, las personas ahora pueden descartar la documentación en video de cosas que no les gustan como "deepfakes" incluso si son reales. Determinar la autenticidad del video será tan útil como lo han sido los verificadores de hechos para combatir la difusión de noticias falsas.

Los investigadores que desarrollaron esta nueva tecnología de software piden todo tipo de salvaguardas que deberían implementarse para proteger al mundo de las consecuencias de su tecnología, pero mientras se apresuran a desarrollar la tecnología para producir videos falsos, nadie parece hacerlo. Esté tan interesado en desarrollar esas salvaguardas.

En cambio, los investigadores detrás de este último software confían esencialmente en que la población del mundo, la mayoría de la cual tiene varios niveles de control impuestos sobre sus fuentes de información, discernirá por sí mismos si el video que acaban de ver en la televisión del gobierno es un deepfake. O no. Al parecer, no pueden molestarse en hacer esto ellos mismos.

Las consecuencias de esta tecnología no pueden subestimarse. En 1994, un avión que transportaba al presidente de Ruanda fue derribado, matando a todos a bordo. El gobierno hutu de Ruanda culpó a un ejército rebelde tutsi por el ataque, que precipitó un genocidio de civiles tutsi que duró cien días y se cobró casi un millón de vidas. Los diversos conflictos en los Balcanes han costado más de cien mil vidas desde la desintegración de Yugoslavia y los gobiernos han utilizado durante mucho tiempo información errónea y fabricaciones descaradas para incitar pogromos contra judíos y otras minorías perseguidas a lo largo de la historia de la humanidad.

Tensiones como estas existen en todo el mundo en este momento, esperando que un punto de inflamación encienda estas tensiones en guerra y genocidio. Una falsa falsedad de un prominente líder o figura de una minoría religiosa o étnica que "confiesa" algún crimen horrible sería una "justificación" más sólida para incitar a un genocidio de lo que se han basado los genocidios pasados. Hasta el día de hoy, nadie sabe quién derribó el avión del presidente de Ruanda, pero todo lo que se necesitó fue la acusación enérgica para que la matanza continuara.

No todas las situaciones son 1994 en Ruanda, a veces una acusación no es suficiente, pero ¿quién necesita una acusación cuando puedes tener una "confesión"? No hay nada que impida que un deepfake se convierta en el siglo XXI. Protocolos de los Ancianos de Sion- de hecho, está garantizado que tal falsificación es ahora inevitable y la gente seguramente morirá a causa de ella. Mucha gente.

En su Madre Jones sobre la controversia gabonesa sobre deepfakes, Ali Breland escribe: "[mientras] ue la mayor parte de la cobertura mediática de deepfakes se ha centrado en escenarios de terror en los que se utilizan contra Estados Unidos y otros países occidentales, los expertos advierten que los deepfakes podrían causar la mayor cantidad de estragos en los países en desarrollo , que a menudo son el hogar de gobiernos frágiles y poblaciones con una alfabetización digital incipiente. En lugar de, tal vez, un video falso del CEO de Amazon, Jeff Bezos, anunciando su retiro, lo que desencadenó una caída de valores, la desinformación en algunos países podría conducir a golpes de estado, violencia de género o por motivos étnicos , amenazando la estabilidad de estados enteros ".

En un artículo reciente del New York Times, la Dra. Regina Rini, instructora de filosofía en la Universidad de York en Toronto, cree que ya es demasiado tarde para dar marcha atrás y que debemos prepararnos para tratar el video más como un testimonio de un testigo que como una prueba documental. . "[Está] claro que los argumentos actuales sobre las noticias falsas son solo una muestra de lo que sucederá cuando los sonidos y las imágenes, no solo las palabras, estén abiertos a la manipulación por cualquier persona con una computadora decente".

Ética, Shmethics

Si las personas involucradas en la producción de esta tecnología hubieran recibido la instrucción adecuada en ética, o incluso solo en historia, esta tecnología nunca habría abandonado la etapa de propuesta y cualquiera que la impulsara habría sido despedido por gerentes que tenido recibió una educación ética adecuada. Dado que nadie con autoridad en las empresas e instituciones que han desarrollado esta tecnología parece pensar que tales consideraciones fueron lo suficientemente preocupantes como para evitar que esta tecnología se construya, podría ser el momento de que la sociedad intervenga y controle a estas personas con la regulación.

Los investigadores en cuestión parecen apreciar este punto ellos mismos, cuando escriben "creemos que es necesaria una conversación pública sólida para crear un conjunto de regulaciones y leyes apropiadas que equilibren los riesgos del uso indebido de estas herramientas con la importancia de la creatividad y el consenso". casos de uso ". Sin embargo, nunca debería haber llegado tan lejos, ya que los "casos de uso consensuales y creativos" pierden importancia junto al enorme daño que causará el "mal uso" de su tecnología. Sopesando uno contra otro, cualquier persona razonable debería haber podido concluir que bajo ninguna circunstancia un beneficio de esta tecnología para la industria justifica el daño que esta tecnología causará a la sociedad. Sin embargo, parece que la industria de la tecnología carece de personas razonables, ya que claramente no pueden ayudarse a sí mismos cada vez que ven algún otro hilo del tejido social que puedan "alterar".

Esta tecnología ya significará que ya no podemos confiar en lo que vemos con nuestros propios ojos. Se podría argumentar que siempre debemos estar atentos a la desinformación, pero esto también es ingenuo. ¿Quién quiere pasar cada momento de vigilia leyendo, viendo o digeriendo información con este tipo de escepticismo duro? todo el tiempo? Esto requiere un nivel de educación y energía mental que no todo el mundo posee y que nadie puede sostener para siempre. La sociedad se construye, en última instancia, sobre un cierto nivel de confianza. Esta tecnología simplemente destruye parte de esa confianza ganada con tanto esfuerzo que no se puede reparar fácilmente, en todo caso.

Pero bueno, si tienes una edición menor de guión y necesitas volver a grabar 15 segundos de diálogo, esta tecnología vale totalmente el costo social.


Ver el vídeo: Las 5 tecnologias que van a morir en el futuro (Junio 2022).


Comentarios:

  1. Badu

    Le ruego a su perdón que interviniera ... Entiendo esa pregunta. Nosotros lo consideraremos.

  2. Jayden

    Realmente. Aviso, ¿dónde puedo encontrar más información sobre esta pregunta?

  3. Malagor

    Puedo recomendarle visitarle un sitio en el que hay mucha información sobre esta pregunta.

  4. Cyneley

    Te pido disculpas, pero, en mi opinión, no tienes razón. estoy seguro Puedo defender la posición. Escríbeme por PM, hablamos.

  5. Marilynn

    Disculpe, no en esa sección .....



Escribe un mensaje