Meta, la empresa matriz de redes sociales como Facebook e Instagram, ha decidido tomar medidas ante el alarmante aumento de estafas cibernéticas, especialmente desde el inicio de la pandemia.
La compañía está llevando a cabo pruebas para implementar una tecnología de reconocimiento facial destinada a identificar publicaciones fraudulentas que involucran a celebridades.
Monika Bickert, vicepresidenta de políticas de contenido de Meta, destacó en una entrevista la gravedad de esta problemática que afecta a millones de usuarios. Estas estafas no solo ponen en riesgo la seguridad de los usuarios, sino que también amenazan la privacidad y la reputación de las celebridades que son utilizadas sin su consentimiento para engañar a sus seguidores.
"Usamos clasificadores de aprendizaje automático para revisar lo que se comparte, en búsqueda de infracciones a nuestras políticas de publicidad, incluyendo estafas", explicó Bickert. Este sistema permite a Meta identificar deepfakes y otros contenidos fraudulentos relacionados con figuras públicas, utilizando su avanzado sistema de revisión de anuncios que analiza millones de publicaciones diarias.
El proceso es automatizado y considera diversos factores, como texto, imágenes y videos, aplicando el aprendizaje automático de la inteligencia artificial para reconocer patrones asociados a artistas, deportistas y otras personalidades. Bickert se refirió a este tipo de estafas como "celeb-bait", una práctica que infringe las políticas de la plataforma y es perjudicial para los usuarios.