Los avances en Inteligencia Artificial (IA) unido a la popularización del acceso a la computación en la nube ha provocado el desarrollo de técnicas de manipulación de audio, video e imágenes que hasta hace poco sólo estaban al alcance de especialistas. Es lo que se conoce como ‘DeepFake’, una técnica que usa la inteligencia artificial, más concretamente el aprendizaje profundo (‘Deep Learning’), para crear imágenes de eventos falsos.
‘DeepFakes’: ¿la evolución de las 'Fake News'?
Sin tener todavía digeridas las ‘Fake News’, ahora surge esta otra corriente en Internet que intenta generar vidas paralelas gracias al avance de la tecnología. Aunque en la actualidad lo vemos como una corriente inofensiva (o incluso divertida), las ‘Deepfakes’ pueden dañar a las personas, las empresas y a la sociedad en su conjunto ya que pueden provocar mayor desconfianza en los medios de comunicación.
Y es que poner palabras en boca de otra persona, intercambiar la cara de alguien por otra y crear títeres digitales de personajes públicos para intimidar, humillar o chantajear son algunos ejemplos de ‘DeepFakes’ que se pueden ver actualmente en la Red. Estas acciones son éticamente cuestionables y hay que ser conscientes del daño potencial que se puede hacer a personas e instituciones.
El impacto más engañoso de las ‘Deepfakes’, junto con otros medios artificiales, es crear una sociedad de confianza cero, es decir, una sociedad en la que la gente no puede, o ya no se moleste, en distinguir la verdad de la mentira. Y cuando la confianza se erosiona, es más fácil plantear dudas sobre eventos específicos.
Por ello, debemos seguir fomentando el pensamiento crítico ante este escenario digital, aunque sea complicado. Con las ‘Fake News’, solo tenemos unas líneas de texto que nos cuentan algo ‘sorprendente’ (pero a la vez totalmente falso): ahora ese mismo texto se sigue retroalimentando en forma de imagen, video e incluso audio. Con todo ello, no se hace más que enriquecer y perfeccionar un único objetivo: engañar.
El uso de las ‘DeepFakes’
Lo más importante en cuanto a su uso es que cuando se crea o distribuye una ‘DeepFake’ nos debemos asegurar que sea de manera ética. También deben tener esa obligación moral las plataformas digitales que proporcionan herramientas y recursos para crear este tipo de material de manera rápida y sencilla.
No obstante, también debemos verlo desde la perspectiva del avance tecnológico. Algunos de sus usos pueden ser muy útiles, como la clonación de voces, la cual puede restaurar las voces de las personas que la pierden debido a una enfermedad, hacer uso de vídeos ‘DeepFake’ para animar galerías y museos o, incluso, ‘devolverles la vida’ a actores ya fallecidos consiguiendo su ‘aparición’ en películas actuales.
¿Y en el aula?
Desde un punto de vista educativo, la técnica ‘DeepFake’ nos permite, por ejemplo, contextualizar una experiencia de aula dando vida a personajes históricos o ‘creando’ conversaciones imposibles. En este caso esa ‘suplantación de identidad’ nos permite empatizar con personajes y ‘manipularlos’ con fines didácticos. De una manera muy visual no solo podemos exponer lo que dice un personaje, sino también que el alumno se sienta como dicho personaje, enriqueciendo los contenidos. ¿Un ejemplo? Con esta tecnología es posible escuchar al propio Leonardo DaVinci hablando sobre como pintó ‘La Gioconda’ o al propio Nikola Tesla contando algunos de sus inventos basados en electromagnetismo. Todo esto nos puede dar escenarios de aprendizaje muy atractivos.
No debemos olvidar también que llevar al aula las ‘DeepFakes’ como lo que son (una técnica que puede ser peligrosa y producir engaño), resulta fundamental para que los estudiantes la conozcan y sepan utilizarla como herramienta ‘didáctica’ para blindar un poco más su pensamiento crítico.
En definitiva, todos los avances tecnológicos hay que verlos como una oportunidad de enseñar o introducir en clase, por lo que solo tenemos que saber contextualizar y ver la tecnología cómo lo que es: una herramienta de aprendizaje que nos permite acercar al estudiante a un conocimiento y por qué no, a una realidad digital.
El problema surge cuando los padres le dan a sus hijos un móvil y luego no son capaces de ejercer ningún control sobre su uso. Y estas herramientas son utilizadas por los alumnos para acosar a sus compañeros y compañeras de la peor manera.