Icono del sitio Directivos y Empresas

Microsoft refuerza la transparencia con IA para combatir los deepfakes

Combatir Deepfakes

El auge de la inteligencia artificial ha transformado muchos aspectos de la sociedad, pero también ha traído consigo nuevas amenazas. Uno de los problemas más preocupantes en este campo son los deepfakes, es decir, contenidos creados con IA que simulan eventos, personas o lugares reales de manera extremadamente convincente. Estos videos o imágenes manipulados pueden desinformar, engañar y crear caos en ámbitos políticos, sociales y culturales.

Un ejemplo claro de cómo los deepfakes pueden generar confusión ocurrió durante la invasión de Ucrania en 2022, cuando fotógrafos locales documentaban la destrucción de sitios culturales para preservar el patrimonio y recopilar pruebas de la devastación. Sin embargo, la rápida difusión de imágenes falsas hizo que las personas comenzaran a confundir lo que era real con lo que no lo era. Para combatir este problema, los fotógrafos recurrieron a una nueva herramienta que verificaba la autenticidad de sus imágenes, asegurando que no eran deepfakes. Esta iniciativa evolucionó y dio lugar al conjunto de herramientas de integridad de contenidos de Microsoft, un esfuerzo diseñado para aportar más transparencia a lo que se publica en Internet.

La necesidad de transparencia en la era de la desinformación

El impacto de los deepfakes va más allá del simple entretenimiento. A medida que avanzan las capacidades de la IA generativa, también lo hacen las posibilidades de manipulación maliciosa. Esto incluye fraudes, robo de identidad y hasta interferencia electoral. La creación de deepfakes ha generado una crisis de confianza, donde la línea entre lo real y lo falso se vuelve difusa. La solución para combatir estos riesgos no solo debe provenir de las empresas tecnológicas, sino también de la sociedad en su conjunto, que debe demandar más transparencia y responsabilidad en el contenido digital.

Las herramientas de Microsoft en la lucha contra los deepfakes

Microsoft ha asumido un papel clave en esta lucha a través del desarrollo de nuevas herramientas que permitan verificar la autenticidad del contenido digital. La empresa ha presentado un conjunto de soluciones bajo el paraguas de la Coalición para la Procedencia y Autenticidad del Contenido (C2PA), una organización que cofundó para desarrollar un estándar técnico abierto. Este estándar tiene como objetivo establecer la procedencia del contenido digital, incluidos los activos generados por IA, rastreando su origen y cambios a lo largo del tiempo.

Uno de los pilares de esta solución es la creación de las Credenciales de Contenido, metadatos certificados que indican detalles clave como quién creó el contenido, cuándo se generó y si se utilizó IA en su creación. Estas credenciales están diseñadas para adjuntarse de manera criptográfica a fotos, videos y audios, lo que permite que cualquier manipulación posterior sea detectada más fácilmente.

Beneficios de las Credenciales de Contenido

Las Credenciales de Contenido no solo brindan transparencia sobre el origen del contenido, sino que también proporcionan una capa adicional de confianza para los consumidores y empresas. A medida que las herramientas de verificación de Microsoft se implementan más ampliamente, los usuarios podrán escanear contenido en plataformas como LinkedIn para confirmar su procedencia y si ha sido alterado de alguna manera.

Jessica Young, gerente de programas de Microsoft, subraya la importancia de esta transparencia: “Los medios generados o modificados por IA pueden ser útiles en muchos contextos, pero debería haber siempre una divulgación clara sobre su fuente y recorrido”. Según Young, la meta de Microsoft no es decirle a los consumidores qué contenido es confiable, sino proporcionar el contexto necesario para que las personas puedan tomar decisiones informadas.

La amenaza de los deepfakes en contextos críticos

Uno de los escenarios más alarmantes en los que los deepfakes pueden tener un impacto devastador es en los procesos electorales. Con elecciones programadas en diversos países y un récord de más de 2 mil millones de votantes esperados en todo el mundo, la manipulación de videos e imágenes puede alterar los resultados y sembrar dudas en el sistema democrático.

Conscientes de esta amenaza, Microsoft está priorizando la implementación de sus herramientas de verificación de contenido en campañas políticas, organizaciones electorales y medios de comunicación. Además, la compañía ha lanzado un fondo de 2 millones de dólares junto con OpenAI para fomentar la educación sobre la IA en comunidades vulnerables y entre los votantes. Esto no solo ayuda a combatir la desinformación, sino que también fortalece la confianza en las instituciones democráticas.

La integridad en un mundo digitalizado

Microsoft ha cofundado la C2PA como parte de su esfuerzo por garantizar la integridad de la información en un mundo cada vez más digitalizado. Esta organización, que ya cuenta con casi 200 miembros, está trabajando en desarrollar tecnologías que permitan a los periodistas y otros creadores de contenido verificar y proteger la autenticidad de sus trabajos.

La colaboración entre empresas tecnológicas, medios de comunicación y gobiernos es fundamental para combatir la desinformación. Microsoft también está abogando por leyes que promuevan la transparencia digital y la responsabilidad en el uso de herramientas de IA. Además, la empresa está explorando otras técnicas de transparencia para mejorar la seguridad en la creación y difusión de contenido.

Cómo detectar deepfakes

A pesar de los avances tecnológicos, es importante que los usuarios estén equipados con habilidades para detectar deepfakes y protegerse de la manipulación digital. A continuación, algunos consejos para identificar contenido falso:

  1. Conoce y entiende la fuente: Siempre busca la atribución y los subtítulos del contenido. Si falta información clara sobre su origen, es un indicio de que podría no ser confiable.
  2. Considera la intención del contenido: Pregúntate si el contenido busca entretener, informar o persuadir. Entender el propósito detrás del contenido puede ayudarte a identificar si alguien está tratando de engañarte.
  3. Busca inconsistencias y anomalías: Los deepfakes generados por IA a menudo tienen errores visuales, como figuras borrosas, iluminación inconsistente o texturas poco realistas. Observa con atención estos detalles antes de compartir cualquier contenido.

Un futuro de confianza digital

El trabajo de Microsoft para desarrollar herramientas que verifiquen la autenticidad del contenido en Internet es un paso crucial hacia un futuro más transparente. Sin embargo, la lucha contra los deepfakes y la desinformación es una tarea que requiere la colaboración de múltiples sectores, desde la tecnología hasta el periodismo y los gobiernos.

A medida que las tecnologías de IA continúan evolucionando, es fundamental que sigamos desarrollando mecanismos de verificación que permitan a los usuarios navegar con confianza en el vasto océano de información en línea.

Salir de la versión móvil