Recientemente se acaba de conocer la desagradable noticia relativa a una serie de menores de Extremadura que han visto que en un grupo de WhatsApp de chicos de diversos colegios se han difundido imágenes suyas recreadas con inteligencia artificial (IA), y en las cuales se les aprecia íntegramente desnudas.
El caso es que el simple visionado de las mismas, según relatan varias madres de las víctimas, lleva a pensar que las imágenes son puramente reales. Y es que las deepfake han traído consigo nuevos escenarios virtuales que han desembocado en nuevas conductas susceptibles de vulnerar derechos fundamentales esenciales, como son el honor, la intimidad y la propia imagen.
En concreto, esta serie de imágenes vulneran flagrantemente el derecho a la intimidad de todas y cada una de las menores ya que se ha utilizado su figura para recrear su desnudo, empleando para tal fin sus rostros. Aunque el cuerpo no sea el de la víctimas, el simple hecho de dar a entender al público que es su cuerpo ya incide en un aspecto totalmente privado y, en consecuencia, tiene cabida en el bien jurídico protegido del derecho a la intimidad (Art. 18.1 C.E.)
Asimismo, la persona que ha confeccionado tales recreaciones –así como sus difusores– han incurrido en una intromisión ilegítima en la propia imagen en tanto que emplearon sus rostro sin consentimiento del titular. Cuando hablamos del derecho a la propia imagen nos referimos a esa protección sobre la figura de una persona que la haga plenamente identificable, siendo el rostro de cualquiera una parte del cuerpo que obviamente se traduce en la plena identificación.
Es por ello que la Ley Orgánica 1/1982, de protección civil del honor, la intimidad y la propia imagen, daría cobertura a este tipo de conductas, y las víctimas estarían amparadas por este cuerpo normativo pudiendo ejercitar las correspondientes acciones legales a fin de defender tales derechos.
Asimismo, diversas fuentes apuntan que tales imágenes fueron publicadas al negarse las víctimas a abonar la cantidad solicitada por los autores.
Se destaca que, además, en pleno auge de la tecnología IA, el momentum donde se ha hecho público este vídeo cobra aún mayor relevancia. Los medios de comunicación necesitan hechos noticiables sobre esta temática, y por tanto, cualquier caso en el que se use IA en un contexto noticiable tendrá acogida.
Se debe añadir a este hecho lo que supone que la generación de vídeos haya sido realizada por parte de menores de edad, muchos de ellos sin supervisión adulta. Para que un menor de edad acceda a una app de IA se deben dar varios condicionantes. El primero, acceso a internet, acceso a un smartphone, y acceso a una cuenta activa a una app.
Si el menor de edad tiene menos de 14 o 16 años no debería legalmente usar ninguna de las redes sociales o apps que así restringen su uso por edad. Por tanto, se da una situación de falta de supervisión y control de la actividad de los menores de edad en la red, y esto abre un debate complejo pero no nuevo. Subrayamos la necesidad de proteger los derechos de los menores de edad, y por supuesto su bienestar.
Si ponemos atención al hecho de que un menor de edad sufra como ven imágenes sexuales suyas, ya sean retocadas o no, ello supone realmente una forma de violencia sexual y explotación sexual. Los adultos, y más específicamente los adultos al cargo de menores de edad, debemos asegurar el libre desarrollo de su personalidad; y sufrir una situación de estas características sería por supuesto un trauma duro de gestionar.