Usan la IA en TikTok para promover remedios engañosos y falsos en EE.UU.
Videos fake de médicos reales para vender falsos medicamentos
Una empresa que detecta información falsa en las redes descubrió que Welness Nest creó videos con la cara de médicos a los que les cambió el discurso.
Domingo, 7 de diciembre de 2025

Full Fact, una organización benéfica británica que corrige la información que circula en redes sociales, descubrió que en Tik Tok y otras redes se están viralizando cientos de videos falsos de médicos reales con Inteligencia Artificial para vender suplementos no comprobados y desinformar en cuestiones sanitarias.
El objetivo de estos videos era vender productos de Wellness Nest, una empresa con sede en EE.UU. que vende suplementos cuyos efectos no están comprobados. El material audiovisual de esa empresa --conocido como deepfake-- contiene la imagen de expertos en salud. Sin embargo, tanto su imagen como su voz fueron editadas para invitar a mujeres que atraviesan la menopausia a que compren productos como probióticos y shilajit del Himalaya en el sitio web de la compañía estadounidense.
A raíz de este hecho, se ha comenzado a pedir a los usuarios con más seguidores que sean mucho más cuidadosos para difundir contenido generado por IA, y que borren todo lo que hayan subido que tergiverse los dichos de las personas expuestas en fotos y videos.
Un verificador de Full Fact que realizó esta investigación, Leo Benedictus, consideró que “esta es ciertamente una nueva táctica siniestra y preocupante”. Detalló que los creadores de los videos viralizados usan la IA para que “alguien muy respetado o con una gran audiencia parezca estar respaldando estos suplementos para tratar una variedad de dolencias”.
El hombre detrás de la IA
Uno de los profesionales de la salud cuya imagen fue utilizada en esos videos fue David Taylor-Robinson, un profesor experto en desigualdades sanitarias de la Universidad de Liverpool. En agosto de este año el hombre se dio cuenta de que solo en Tik Tok había catorce videos publicados con su imagen y su voz editadas, promocionando productos de dudoso beneficio. No solo sus características físicas fueron trucadas, si no también su especialización, dado que Taylor-Robinson es especialista en salud infantil. Pero en los videos su clonación digital hablaba de un supuesto efecto secundario de la menopausia al que se refiere como “pierna termómetro”.
La recomendación que da la imagen y la voz de Taylor Robinson es que las mujeres menopáusicas visiten la página web de Welness Nest y compren un probiótico natural que incluiría “10 extractos de plantas respaldados por la ciencia, entre ellos cúrcuma, cimicífuga, Dim [diindolilmetano] y moringa, elegidos para abordar los síntomas de la menopausia”. Los presuntos beneficios de esta medicina sin comprobación serían “un sueño más profundo, menos sofocos y mañanas más brillantes en cuestión de semanas”.
El verdadero David Taylor-Robinson no supo de la difusión de su cuerpo y voz hasta que un colega suyo se lo advirtió. “Al principio fue muy confuso, todo bastante surrealista”, confesó, aunque señaló que “a mis hijos les pareció divertidísimo”. Sin embargo, el experto inglés no lo valoró de la misma forma. “No me sentí desesperadamente violado, pero sí me irritó cada vez más la idea de que la gente vendiera productos a costa de mi trabajo y la desinformación sanitaria que esto implicaba”, reconoció.
Los deepfake de Taylor-Robinson fueron producidos a partir de una charla de vacunación que dio en una conferencia en 2017 y de otra audiencia parlamentaria sobre pobreza infantil. Finalmente la red social eliminó sus videos falsos seis semanas despúes de que él se quejara. “Al principio dijeron que algunos videos infringían sus normas, pero otros no tenían problema. Fue absurdo y extraño, porque yo salía en todos y eran deepfakes”, dijo ofuscado el británico. “Fue una pérdida de tiempo”, lamentó sobre la demora hasta su eliminación.
No fue el único
La investigación de Full Fact reveló que el subdirector ejecutivo de Public Healt England, Duncan Selbie, fue víctima de otros ocho videos falsos generados con IA y difundidos en Tik Tok. La imagen y voz de Selbie fueron editadas para forzarlo a promocionar productos sin una comprobación correspondiente para mujeres en la etapa de menopausia. El evento que sirvió de base para la edición fue la misma conferencia de PHE en 2017. “Fue una imitación asombrosa”, reconoció Duncan Selbie: “Es una falsificación completa de principio a fin. No tenía gracia, en el sentido de que la gente se fija en estas cosas”.
Otras víctimas fueron el profesor Tim Spector y hasta un difunto experto en nutrición llamado Michael Mosley. De acuerdo con la pesquisa de Full Fact, estos videos fueron difundidos también en Facebook y Youtube y todos ellos estaban vinculados a Wellness Nest de EE.UU. y de Gran Bretaña. La empresa le contestó a la organización que analiza la información y negó que los videos mencionados tengan relación alguna con su negocio. Además, señalaron que nunca realizaron contenido con IA y que no podían controlar a sus afiliados en todo el mundo.
Helen Morgan, la portavoz de salud del Partido Demócrata Liberal, advirtió que “la IA se está utilizando para aprovecharse de personas inocentes y explotar las grietas cada vez mayores de nuestro sistema de salud” y pidió “que se eliminen las falsificaciones de iA que se hacen pasar por profesionales médicos y que se promuevan como fuerza herramientas clínicamente aprobadas”. Una vocera de Tik Tok señaló que eliminaron los videos “por infringir nuestras reglas contra la desinformación dañina y los comportamientos que buscan engañar a nuestra comunidad” y definió a estos falsos videos como “un desafío para toda la industria”, sobre el que adelantó que intentarán detectarlo y eliminarlo.Domingo, 7 de diciembre de 2025