True Crime TikTok: las víctimas de AI Deepfakes son una pesadilla despierta
HogarHogar > Blog > True Crime TikTok: las víctimas de AI Deepfakes son una pesadilla despierta

True Crime TikTok: las víctimas de AI Deepfakes son una pesadilla despierta

Oct 11, 2023

Por Ej Dickson

"La abuela me encerró en un horno a 230 grados cuando tenía solo 21 meses", dice el bebé angelical de ojos azules gigantes y una diadema floral en el video de TikTok. La bebé, que habla con una voz adorablemente infantil sobre la melodía quejumbrosa de "Love Is Gone" de Dylan Mathew, se identifica como Rody Marie Floyd, una niña que vivía con su madre y su abuela en Mississippi. Ella cuenta que un día, tenía hambre y no paraba de llorar, lo que llevó a su abuela a ponerla en el horno, lo que la llevó a la muerte. “Por favor, síganme para que más personas conozcan mi verdadera historia”, dice el bebé al final del video.

El bebé en el video, por supuesto, no es real: es una creación generada por IA publicada en @truestorynow, una cuenta con casi 50,000 seguidores que publica videos de víctimas de delitos de la vida real que cuentan sus historias. La espantosa historia que está contando es cierta, aunque hasta cierto punto. El nombre del bebé no era Rody Marie, sino Royalty Marie, y fue encontrada muerta a puñaladas y quemada en un horno en la casa de su abuela en Mississippi en 2018; la abuela, Carolyn Jones, de 48 años, fue acusada de asesinato en primer grado a principios de este año. Pero Royalty tenía 20 meses cuando murió, no 21, y a diferencia del bebé en el video de TikTok, ella era negra, no blanca.

Tales imprecisiones son parte del curso en el mundo grotesco de TikTok de víctimas de crímenes reales de IA, un subgénero del fandom masivo de crímenes reales, que utiliza inteligencia artificial para resucitar esencialmente a las víctimas de asesinatos, muchas de las cuales son niños pequeños. Los videos, algunos de los cuales tienen millones de visitas, involucran a una víctima que habla en primera persona sobre los espantosos detalles de sus muertes; la mayoría de ellos no tienen una advertencia de contenido de antemano.

"Son bastante extraños y espeluznantes", dice Paul Bleakley, profesor asistente de justicia penal en la Universidad de New Haven. "Parecen diseñados para desencadenar fuertes reacciones emocionales, porque es la forma más segura de obtener clics y me gusta. Es incómodo de ver, pero creo que ese podría ser el punto".

Muchas de las cuentas tienen un descargo de responsabilidad que indica que el video no usa fotos reales de las víctimas, como una forma de "respetar a la familia", como lo pone Nostalgia Narratives, una cuenta que publica videos de víctimas de crímenes reales con 175,000 seguidores. los subtítulos de los videos. La cuenta no solo cuenta las historias de famosas víctimas de asesinato infantil como Elisa Izquierdo, una niña de seis años que fue asesinada por su madre abusiva en 1995, y Star Hobson, una niña de un año asesinada por la novia de su madre en 2020. , pero también víctimas adultas de asesinatos como George Floyd y JFK. Ninguna de las cuentas con las que Rolling Stone se acercó respondió a las solicitudes de comentarios, pero el hecho de que cambien la apariencia de las víctimas probablemente se deba a las pautas de la comunidad de TikTok que prohíben las representaciones falsas de personas privadas o jóvenes, una política que la plataforma instituyó en marzo. . (Un portavoz de TikTok confirmó a Rolling Stone que @truestorynow había sido eliminado por violar las pautas de la comunidad).

La proliferación de estos videos de víctimas de crímenes reales de IA en TikTok es la última pregunta ética que plantea la inmensa popularidad del género de crímenes reales en general. Aunque documentales como The Jinx y Making a Murderer y podcasts como Crime Junkie y My Favourite Murder han obtenido una gran cantidad de seguidores de culto, muchos críticos del género han cuestionado las implicaciones éticas de que el público consuma historias de la vida real de agresiones y asesinatos horribles como puro entretenimiento. , con el auge de los detectives de sillón y los obsesivos del crimen real que potencialmente vuelven a traumatizar a los seres queridos de las víctimas.

Esa preocupación se aplica doblemente a videos como el que presenta a Royalty, que cuenta la historia de una víctima desde su perspectiva y usa su nombre, presumiblemente sin el consentimiento de la familia, con un efecto increíblemente espeluznante. "Algo como esto tiene un potencial real para volver a victimizar a las personas que han sido victimizadas antes", dice Bleakley. "Imagínese ser el padre o pariente de uno de estos niños en estos videos de IA. Entra en línea, y con esta voz extraña y aguda, aquí hay una imagen de IA [basada en] su hijo fallecido, entrando en detalles muy sangrientos sobre lo que les pasó".

También hay problemas legales potencialmente espinosos asociados con la creación de videos deepfake, agrega Bleakley, comparando el aumento de los videos de crímenes reales de IA con la popularidad de la pornografía deepfake. Aunque no existe una ley federal que prohíba las imágenes y videos falsos no consentidos, tanto Virginia como California han prohibido la pornografía falsa y, a principios de este mes, el congresista Joe Morelle propuso una legislación que convierte en un delito y una responsabilidad civil que alguien difunda tales imágenes.

Los videos de crímenes reales falsos profundos son diferentes de la pornografía falsa profunda por razones obvias, sin embargo, Bleakley podría ver cómo las familias en duelo pueden querer entablar un litigio civil contra los creadores de tales videos, particularmente si están siendo monetizados, aunque señala que sería difícil para las familias argumentar sobre la base de la difamación debido a que los sujetos han fallecido. "Es un área gris muy pegajosa y turbia", dice.

Sin embargo, una cosa está clara: con la tecnología de IA que evoluciona rápidamente todos los días y con poca o ninguna regulación para frenar su propagación, la pregunta no es si videos como estos se volverán más populares, sino cuánto peor será el matrimonio de la verdad. el crimen y la IA van a conseguir. Uno puede imaginarse fácilmente que los creadores de crímenes reales pueden no solo recrear las voces de las "víctimas" de asesinato, sino también recrear los detalles sangrientos de los crímenes. "Esta es siempre la pregunta con cualquier nuevo desarrollo tecnológico", dice Bleakley. "¿Dónde va a parar?"

Actualización jueves, 31 de mayo de 2023, 4:15 p. m.: esta historia se actualizó con más información que aclara por qué @truestorynow fue prohibido en TikTok.