Aplicaciones que pueden desnudar a las víctimas aún están disponibles

Un informe reciente revela una alarmante realidad en el mundo digital: diversas aplicaciones y herramientas de inteligencia artificial diseñadas para desnudar digitalmente a personas (conocidas como nudify) siguen estando disponibles y accesibles para el público general.

A pesar de las constantes denuncias de activistas y víctimas, así como de las promesas de las grandes plataformas tecnológicas para endurecer sus políticas de seguridad, estas herramientas de “deepfake” erótico continúan proliferando en tiendas de aplicaciones y sitios web especializados, facilitando la creación de contenido íntimo no consentido.

El reporte destaca que estas aplicaciones han mejorado su precisión técnica, permitiendo generar imágenes falsas altamente realistas en cuestión de segundos a partir de una fotografía convencional. El problema se agrava debido a que muchas de estas plataformas operan desde jurisdicciones con leyes laxas sobre delitos cibernéticos o utilizan redes de publicidad agresivas para atraer a nuevos usuarios. La facilidad de acceso ha provocado un aumento en los casos de extorsión y acoso digital, afectando principalmente a mujeres y menores de edad, cuyas imágenes son manipuladas y difundidas sin su conocimiento ni autorización.

Expertos en ética digital y seguridad informática subrayan que el marco legal actual es insuficiente para frenar esta tendencia. Aunque se han realizado esfuerzos por parte de algunos gobiernos para criminalizar la creación de estos contenidos, la naturaleza descentralizada de internet dificulta la eliminación total de estas herramientas. Se hace un llamado urgente a las empresas de tecnología para que implementen filtros de detección más estrictos y a los motores de búsqueda para que desindexen estos sitios, con el fin de proteger la integridad y la privacidad de los usuarios frente a este tipo de violencia digital.


Te podría interesar:https://fm105.com.mx/category/deportes/

La persistencia de estas herramientas refleja un fallo sistémico en la regulación de la inteligencia artificial generativa. Mientras la tecnología avanza a pasos agigantados, los mecanismos de protección social y legal parecen ir siempre un paso atrás. Es fundamental fomentar una cultura de civismo digital y educación sobre el consentimiento, además de exigir una mayor responsabilidad a los desarrolladores de software, quienes muchas veces priorizan la innovación técnica por encima de las consecuencias éticas y humanas de sus creaciones.

Véase también:https://elvigia.com.mx/category/deportes/

Read Previous

EE.UU. retira miles de documentos del caso Epstein tras divulgar información de víctimas

Read Next

Trump ordena retiro inmediato de 700 agentes de inmigración en Minneapolis