16.2 C
Buenos Aires
viernes, 1 mayo, 2026
InicioSociedadUsaron su imagen sin permiso para crear una microserie con IA: el...

Usaron su imagen sin permiso para crear una microserie con IA: el caso que sacude a China

La influencer Christine Li descubrió que su rostro fue utilizado sin consentimiento para protagonizar un contenido generado por inteligencia artificial. El caso expone los riesgos legales y éticos de los deepfakes.

Un capítulo de Black Mirror. Así podría describirse lo que vivió la influencer china Christine Li cuando se encontró en un video golpeando a mujeres y maltratando animales. Pero no era realmente ella, sino una versión generada con inteligencia artificial (IA) sin su consentimiento para dar vida a un personaje de la microserie The Peach Blossom Hairpin.

El episodio se viralizó en Hongguo, una plataforma de ByteDance —la compañía detrás de TikTok— especializada en la difusión de ficciones breves para redes sociales. Fueron sus seguidores quienes la alertaron sobre la existencia del video, que para ese momento ya acumulaba millones de visualizaciones.

“Quedé en shock. Era claramente yo”, dijo Li, e indicó que era “evidente” que alguien había utilizado sus fotos publicadas en redes sociales para crear el contenido. “Sentí un miedo profundo, preguntándome qué tipo de persona podría hacer algo así”, agregó. La joven planea presentar una demanda judicial, informó O Globo.

Li no fue la única víctima: también se utilizó la imagen de un hombre —identificado bajo el seudónimo Baicai— para crear al “marido” de Li. Según contó, fue retratado como alguien “feo y sospechoso”. “¿Qué impacto tendrá esto sobre mí, mi trabajo y mis oportunidades profesionales?”, se lamentó.

Tras el escándalo, The Peach Blossom Hairpin siguió disponible en la plataforma, aunque con sus personajes reemplazados. No obstante, desde Hongguo afirmaron que el video fue eliminado por incumplir las normas de la aplicación. A su vez, prometieron reforzar sus procedimientos de revisión de contenido y eliminaron cerca de 670 microseries que infringían las normas de la plataforma. Sin embargo, aún se desconoce quién estuvo detrás de la creación de los deepfakes de Li y Baicai.

Por su parte, las autoridades chinas decretaron que la creación de microseries con IA deberá estar sujeta a la obtención de licencias. La decisión no es casual: el mercado de ficciones ultracortas ya superó los US$8000 millones a nivel mundial, con un fuerte crecimiento en China, según datos de Media Partners Asia.

El caso recuerda al de Scott Jacqmein, un actor estadounidense de 52 años que a mediados de año pasado empezó a recibir mensajes de amigos y conocidos sorprendidos por su presencia en distintas publicidades en TikTok, promocionando una gran variedad de productos. Pero no era él: era un avatar digital creado a partir de un video sobre el que había cedido derechos de propiedad en 2023, y que ahora se usaba de base para generar videos con IA de los que no cobra un centavo.

Para Mariano Casero, CTO de Finnegans, casos como el de Christine Li son consecuencia de un vacío legal que lleva años sin resolverse. “La imagen todavía no recibe el tratamiento que debería. Tu cara es un dato personal. Usarla sin consentimiento tendría que tener las mismas consecuencias legales que cualquier otra violación de datos”, comenta a LA NACION. Y añade: “Antes te robaban una contraseña, ahora te roban la apariencia y eso es mucho más difícil de recuperar”.

Sergio Sirotinsky, profesor de IA de la Universidad del CEMA, comparte una mirada similar: “Hoy la IA permite recrear nuestro rostro, voz, gestos y apariencia para insertarnos en situaciones que nunca protagonizamos. Eso transforma la identidad en un activo vulnerable”.

En este escenario, ambos expertos señalan que los controles de las plataformas no son preventivos, sino reactivos. “La tecnología avanza, genera el daño, y recién entonces aparecen los controles”, analiza Casero. Bajo esa línea, Sirotinsky remarca la importancia de reforzar medidas de protección dentro de las plataformas, como la verificación de consentimiento para usar rostros o voces reales, la detección automática de deepfakes, la trazabilidad de los contenidos generados con IA, el etiquetado visible cuando hay contenido sintético y el acceso a canales ágiles para reclamos.

“La responsabilidad es de las empresas que desarrollan los modelos, de las plataformas que distribuyen el contenido, y de los usuarios que lo generan. No puede recaer únicamente en la víctima, que es quien menos poder tiene en toda esta cadena”, suma Casero.

Por otro lado, los especialistas consultados por este medio subrayan que los marcos regulatorios deben actualizarse. “El problema es complejo y las soluciones también lo son. El desafío es cómo dejar que la tecnología siga avanzando sin que eso se haga a costa de la privacidad de las personas”, reflexiona Casero. En ese sentido, puntualiza que América Latina todavía está “varios pasos atrás”.

Sirotinsky explica que, si bien en la Argentina aún no existe una ley específica de deepfakes, hay normativas vigentes que pueden ofrecer protección desde varios frentes. “El Código Civil y Comercial resguarda derechos como la imagen, el honor, la intimidad y la dignidad, mientras que la Ley de Protección de Datos Personales protege el uso de información que permite identificar a una persona, como fotos, videos o registros biométricos”, detalla. Sin embargo, el rápido avance de la tecnología cambia por completo el panorama y exige nuevas respuestas legales.

Más noticias
Noticias Relacionadas