Un vídeo de Taylor Swift que nunca existió, una charla TED que nunca existió, una conferencia de Einstein que nunca existió. No se trata de efectos especiales cinematográficos, sino de increíbles creaciones de OmniHumano-1, el nuevo sistema de inteligencia artificial para vídeos deepfake desarrollado por ByteDance (el “dueño” de TikTok) que está redefiniendo los límites entre la realidad y la ficción digital.
Una tecnología sin precedentes
Vídeos deepfake no son nada nuevo en el panorama digital. Ya existen numerosas aplicaciones capaces de insertar a una persona en una foto o hacerle decir cosas que nunca ha dicho. Pero la mayor parte de este contenido manipulado muestra signos evidentes de artificialidad. OmniHuman-1 parece haber superado esta limitación, produciendo resultados sorprendentemente realistas.
El sistema solo requiere dos elementos para generar un vídeo deepfake: una imagen de referencia y un archivo de audio, que puede ser un discurso o una pista de voz. Con estas entradas mínimas, el OmniHuman-1 puede producir clips de cualquier duración, con relaciones de aspecto ajustables y control completo sobre la representación del sujeto. El sistema fue entrenado con 19.000 horas de contenido de vídeo (de fuentes no reveladas).
Capacidades de manipulación avanzadas
Las capacidades de OmniHuman-1 van más allá de la simple generación de video. El sistema también puede modificar imágenes existentes, alterando incluso los movimientos de las extremidades de las personas. Los resultados, tal y como lo muestra el equipo de ByteDance, son increíblemente convincentes, aunque no sin limitaciones: si se “alimenta” con imágenes de referencia de baja calidad, los resultados son inferiores y algunas poses siguen siendo problemáticas. Sin embargo, el grado de refinamiento alcanzado por OmniHuman-1 plantea serias preocupaciones, en un cuadro ya bastante incandescente.
en 2024Los deepfakes políticos ya han causado problemas importantes: en Taiwán, un grupo afiliado al Partido Comunista Chino publicó un audio manipulado de un político; En Moldavia, videos deepfake mostraron la falsa renuncia del presidente maia sandu; En Sudáfrica, una falsificación Eminem Apoyó a un partido de oposición.
Secondo DeloitteSolo en Estados Unidos, el contenido generado por IA ha contribuido a Las pérdidas por fraude superarán los 12 millones de dólares en 2023, con proyecciones de que podrían alcanzar los 40 millones de dólares en 2027. Los consumidores están siendo engañados por deepfakes de celebridades que promueven inversiones fraudulentas, mientras que las empresas están siendo estafadas por millones por impostores digitales. La comunidad científica está pidiendo una regulación estricta y más de un organismo está considerando una legislación que permitiría a los jueces ordenar la eliminación de vídeos deepfake, con posibles sanciones monetarias para los infractores.
Vídeos deepfake: la ardua batalla de la detección
La detección de vídeos deepfake sigue siendo un desafío importante. A pesar de los esfuerzos de las redes sociales y los motores de búsqueda para limitar su propagación, el volumen de contenido manipulado en línea continúa creciendo a un ritmo alarmante. Una encuesta de Jumio de 2024 revela que El 60% de las personas se han topado con un deepfake en el último año, y el 72% teme ser engañado por uno a diario.
ByteDance aún no ha lanzado públicamente OmniHuman-1, pero la experiencia demuestra que la comunidad de IA no tardará mucho en replicar sistemas similares. Esto plantea preguntas cruciales sobre el futuro de la verdad digital y la necesidad de desarrollar herramientas eficaces para proteger a la sociedad de esta tecnología cada vez más poderosa y peligrosa.