6 CUOTAS SIN INTERÉS + ENVÍO GRATIS EN COMPRAS NACIONALES

Por Lucas Moyano*

 

DEEPFAKES Y LA IMPERIOSA NECESIDAD DE SU REGULACIÓN EN LA LEY PENAL ARGENTINA
ALGUNOS CONCEPTOS SOBRE EL USO ILEGAL DE LA  INTELIGENCIA ARTIFICIAL. ¿VAS A CREER EN TODO LO QUE VES?

Podemos definir a un deepfake como una simulación de sonido, imagen o vídeo que induce al receptor a pensar que es verdad, cuando en realidad se trata de un contenido falso.
El “deepfake” utiliza técnicas de Inteligencia Artificial y toma prestado parte de su nombre de la disciplina conocida como “deep learning”, ya que consiste en la aplicación de una serie de algoritmos de aprendizaje para modificar y crear contenido multimedia.  
Como resultado, es posible manipular un video para que la cara -e incluso la voz- de una persona puedan ser cambiadas por la de otra. Es decir, se trataría de un contenido falso o "fake".
De manera general, podemos caracterizar a la Inteligencia Artificial como amoral, pudiendo ser utilizada con distintos fines.
Así, por ejemplo, dentro de los efectos positivos está que en medicina podrían realizarse investigaciones que no requieran pacientes reales. Y en la educación, ayudar a los docentes en la utilización para un video de un discurso histórico creado con el fin de hacer que las lecciones sean más atractivas para los estudiantes.
Puede emplearse también como herramienta para la elaboración de contenido de entretenimiento y marketing, creando personas completamente artificiales.
Pero, por otro lado, la IA también puede ser utilizada con fines malintencionados.
¿De qué manera? A partir de fotos o vídeos de una persona para simular acciones o decir mensajes falsos que comprometan su imagen.
Esto podría llevar a imaginar casos de "deepfake" dirigidos, por ejemplo, a personalidades del ámbito político o empresarial, con el fin de menoscabar sus imágenes o sus organizaciones para influir en la opinión pública.
En este sentido, las imágenes y los audios de Inteligencia Artificial ya se han utilizado en propaganda y para engañar a los votantes en todo el mundo.
En otros supuestos la IA puede ser utilizada para ejercer violencia de género en línea, como es el caso donde se crea material pornográfico no consentido, mediante -por ejemplo- la superposición de rostros de mujeres, contra su voluntad, sobre imágenes sexualmente explícitas.
Un informe exhaustivo -"State of deepfake. Home Security Heroes"- en 2023 determinó que la pornografía constituye el 98% de todos los vídeos "deepfake" encontrados en línea. Y que de ellos, el 99% de las víctimas de la pornografía "deepfake" son mujeres, vulnerando de esa manera los derechos a la protección de datos o privacidad y -también- la intimidad, el honor y la propia imagen.
El "deepfake" tiene capacidad para clonar o imitar la voz y la imagen en tiempo real, sirviendo como herramienta de suplantación de identidad.
Así, los estafadores ya han comenzado a usarla para hacerse pasar por familiares y tratar de que las personas les envíen dinero. O podrían hacerse también pasar por un miembro de una organización para obtener información confidencial. E incluso, por un candidato en un proceso de selección, con el fin de infiltrarse de manera fraudulenta en el mismo.
Un aspecto importante de su utilización ilegal, y que en lo particular me genera mucha preocupación, es su empleo por parte de los pedófilos para generar nuevo material de abuso sexual infantil, compartiendo después con otros ese tipo de contenidos.
En ese caso, se trata de producciones ficticias. Hechas con Inteligencia Artificial; pero tan realistas que aparentan ser de niñas, niños o adolescentes desnudos o en situaciones de abuso sexual.
Dentro de ellas encontramos a lo "virtual", conformado por imágenes de las chicas y los chicos que son completamente ficticias. Tanto el cuerpo como el rostro, por lo que no se involucran a niños reales.
También está la producción "técnica", compuesta de material que se integra por imágenes en las que aparecen personas presentadas como menores en un contexto sexual. Y en una tercera, conocida como "pseudo", se utiliza la cara de una niña, niño o adolescente real y se hace un montaje con su cuerpo.
En nuestro país estas prácticas aún no son consideradas un delito, por lo que sería fundamental que se las incorpore cuanto antes como ilícitos a nuestra legislación penal.
El fundamento para el reclamo de su punición es que este material banaliza y puede contribuir a la aceptación de la explotación sexual de niñas, niños y adolescentes. Además, ataca a la dignidad de la infancia en su conjunto y a la indemnidad sexual de los infantes en general.
A lo expuesto debe destacarse, como un factor intensificador de la amenaza que estas aplicaciones representan, la rápida evolución de los modelos algorítmicos en que se basan. Enmarcada en un intento constante por alcanzar un mayor realismo, supone un problema a la hora de desarrollar arquitecturas de detección eficaces, ya que en buena parte sus modelos se orientan a la identificación de atributos que muestran inconsistencia con la realidad (parpadeo y movimiento ocular, flujo sanguíneo, inflexiones de voz, etc.).
 

Enfoques regulatorios existentes

Los “deepfake” aun utilizados con fines positivos, por ejemplo, con usos comerciales o de entretenimiento genera ciertos debates alrededor de cuestiones como el consentimiento y derechos del uso de imágenes, la transparencia y la confianza de los negocios a través de sus acciones publicitarias, que pueden llegar a inducir creencias sobre un producto o una marca que no son reales.
En la actualidad, respecto a marcos regulatorios a nivel internacional, nos encontramos ante una controversia en torno a la promulgación de legislaciones específicas para regular las “deepfake”, principalmente debido a la dificultad que genera su armonización con derechos y libertades fundamentales.
Un obstáculo que genera la problemática es la atribución de responsabilidades para acreditar la autoría y difusión de los contenidos.
En algunos países también se encuentran algunos vacíos legales respecto a responsabilidades civiles por ejemplo en el caso de vulneración de derechos de imagen de las personas fallecidas.
Respecto a países que cuentan con legislación contra el uso ilegal de DeepFake encontramos en los estados de Virginia (2019) y California (2019) Estado Unidos y Gales e Inglaterra (2022) cuentan con regulación contra las deepfakes que simulan material audio visual de contenido sexual; en Texas (2019) su difusión en comicios electorales está prohibida. El gobierno chino (2020), por su parte, ha abogado por la restricción completa de estos contenidos, que se consideran perjudiciales para la seguridad nacional y la sociedad; se exige que los deepfakes estén claramente etiquetados como generados o editados sintéticamente, y que la identidad de las personas que aparecen en ellos debe ser comunicada a la empresa.
En el caso de la UE la adopción de mecanismos reguladores quedó dentro de la Ley de Inteligencia Artificial, la normativa que establece un sistema de etiquetado para las tecnologías de IA avisando sobre su nivel de riesgo (mínimo, limitado, alto e inaceptable), los proveedores de software deepfake están obligados a cumplir con esta obligación. Asimismo, se impone a los usuarios el requerimiento de etiquetar los contenidos como artificiales o manipulados. La propuesta no prevé, sin embargo, mecanismos punibles.  
Adicionalmente, este marco es ya complementado por diferentes mecanismos en vigor como las leyes de copyright, de derechos de imagen, la ley General de Protección de Datos, la Digital Service Act, la Digital Market Act y la EU Audiovisual Media Service Directive.
Por su parte en Argentina saludablemente hay iniciativas de proyecto de Ley que busca sancionar a aquellos que utilicen la Inteligencia artificial para la creación de deepfake sin consentimiento, generando o pudiendo generar perjuicio a la víctima, o se trate de contenido sexual.
En tanto en el Código Civil y Comercial de la Nación en el Art. 53 encontramos una protección específica al derecho a imagen, al referir: “Para captar o reproducir la imagen o la voz de una persona, de cualquier modo, que se haga, es necesario su consentimiento…”.


Algunas reflexiones

Las amenazas que presentan la evolución tecnológica y su utilización con fines ilegales conllevan la imperiosa necesidad de adaptar el marco legal argentino frente a las herramientas tecnológicas que actualmente se encuentran siendo empleadas para la manipulación de imagen, voz y video sin el respectivo consentimiento, lo cual deriva en la consecuente creación de falsos testimonios visuales y auditivos con fines delictivos o afectan la intimidad y la integridad de las personas.
Dentro de la actualización de los tipos penales debe ampliarse la tipificación del Artículo 128 del Código Penal, para que se incorporen las modalidades "virtuales", "pseudo" y "técnica" mencionadas como formas de abuso sexual en línea con niñas, niños y adolescentes como víctimas, a los fines de dar una adecuada protección al llamado "bien jurídico tutelado".
En ese contexto, se deben examinar y responsabilizar a las empresas tecnológicas que alojan estas aplicaciones y a los sitios web. Específicamente, a las que no presentan sistemas efectivos de verificación de edades y tampoco advierten los usos ilícitos de estas herramientas.
En atención a que diversos estudios indican que las mujeres se han convertido en las principales víctimas de estas prácticas, es prioritario armonizar también esas normas penales con perspectiva de género.
Por otro lado, es necesario trabajar en la concientización, prevención, educación social y de alfabetización visual para un uso responsable, ético y crítico de las tecnologías e información, debiendo ser cada vez más desconfiados en todo lo que nos llega a través de Internet. Y fundamentalmente, tener presentes que no todo lo que vemos es real.

 

* Agente Fiscal de la UFIJ No 22 y 19 Dpto. Judicial Azul. Autor de: “Ciberdelitos. Como investigar en entornos digitales”. Editorial Hammurabi.

 

Si desea participar de nuestra «Sección Doctrina», contáctenos aquí >>