Una palabra que generalmente describe videos manipulados con inteligencia artificial o tecnologías de medios sintéticos, que se mencionan popularmente como falsificaciones profundas. Estos videos manipulados digitalmente, que a los investigadores y legisladores les preocupan, podrían convertirse en un reemplazo, un método insidioso para difundir la desinformación sería rampante. Pero estos avances pueden tener un costo gigantesco si no tenemos cuidado: la tecnología subyacente equivalente también puede permitir el engaño.
Durante décadas, el software de computadora ha permitido a las personas regular fotos y videos o crear imágenes falsas desde cero. Procesos generalmente reservados para expertos capacitados en los caprichos de software como Adobe Photoshop o After Effects. Ahora, las tecnologías de IA están simplificando la táctica, reduciendo el valor, el tiempo y la habilidad necesarios para manipular imágenes digitales. Estos sistemas de IA aprenden por sí mismos, construyen imágenes falsas analizando miles de imágenes reales; lo que significa que van a manejar inmensas cargas de trabajo. Esto también sugiere que las personas pueden crear muchas más cosas falsas de las que necesitan.
Las tecnologías utilizadas para crear deepfakes siguen siendo bastante nuevas y, por lo tanto, los resultados suelen ser fáciles de evadir. La tecnología es un dominio en constante evolución que no se puede retener. Si bien las herramientas pueden detectar estos videos falsos, los deepfakes también están evolucionando, a algunos investigadores les preocupa que no estén listos para seguir el paso.
La colección de videos puede ser un plan de estudios de trucos digitales para computadoras. Al inspeccionar todas esas imágenes, los sistemas de IA determinan la forma de observar las falsificaciones. Facebook, que también está tratando de luchar contra las falsificaciones profundas, usó actores para hacer videos falsos y luego los entregó a investigadores externos. Los ingenieros de una empresa canadiense llamada Dessa, que se enfoca en IA, probaron recientemente un detector de falsificación profunda que se construyó con videos sintéticos de Google. Podría identificar videos de Google con una precisión casi perfecta. Pero una vez que probaron su detector en videos falsos extraídos de Internet, falló el 40 por ciento de las veces. Esto es bastante alarmante, estamos creando algo malo que ni siquiera nosotros podemos detener.
Investigador, el Dr. Niessner está trabajando para crear sistemas que identifiquen y deduzcan automáticamente las falsificaciones profundas, esta suele ser la otra cara de la misma moneda. Los detectores aprenden sus habilidades analizando imágenes. Los detectores también pueden mejorar mucho. Pero eso necesita un flujo interminable de datos más recientes que representen las técnicas de falsificación profunda más recientes utilizadas en Internet, dijeron el Dr. Niessner y otros investigadores. Recopilar y compartir datos adecuados suele ser difícil; los ejemplos son escasos y, por motivos de privacidad y derechos de autor, las empresas no siempre compartirán datos con investigadores externos.
Los costos de la tecnología deepfake no son solo teóricos. Las voces sintéticas se están utilizando para grandes transacciones fraudulentas y los rostros artificiales supuestamente han apoyado el espionaje. Todo eso, a pesar de estos desafíos de ser utilizado para piratear software de calidad beta. Los obstáculos para el uso de medios sintéticos aún son demasiado altos para que la tecnología sea atractiva para la mayoría de los actores malintencionados, pero debido a que pasa de versiones beta con errores a las manos de miles de millones de personas, tenemos la responsabilidad de evitar los peores escenarios al hacerlo. lo más difícil posible para usar deepfakes para el mal.
Finalmente, lo que no estamos lanzando, ya que avanzamos en el futuro, la tecnología posteriormente también avanza; AI es un contribuyente serio, lo que exacerbará las cosas, al ser utilizado como un ‘arma’. Así que tal vez nos gustaría repensar las responsabilidades y la ética (¡un momento! ¡Ética!) de la IA.
Publicación traducida automáticamente
Artículo escrito por CatherineWoods y traducido por Barcelona Geeks. The original can be accessed here. Licence: CCBY-SA