Se trata de una técnica automática que evalúa los historiales de conversación y luego define la necesidad de reportar la amenaza a partir de la colocación de un puntaje de probabilidad, en el marco de su proyecto Artemis para combatir el grooming.
El grooming se da cuando un adulto contacta a un menor a través de Internet y mediante la manipulación o el engaño, y ocultando su edad, logra que realice acciones de índole sexual.
La herramienta presentada se aplica a los historiales de chats basados en texto, luego evalúa y "califica" las características de la conversación y les asigna un puntaje de probabilidad general.
Esta calificación se puede usar como determinante, de acuerdo a cada compañía que implemente esta técnica, sobre cuándo es necesaria la intervención de un moderador humano para su revisión.
"Los moderadores humanos serían capaces de identificar amenazas inminentes para derivar a la policía, así como hechos de sospecha de explotación sexual infantil" a diferentes instituciones, describió Microsoft en un comunicado.
La licencia y adopción de esta técnica será manejada por Thorn, una organización sin fines de lucro que se dedica al desarrollo de herramientas para la protección de menores.
Por tanto, las empresas y servicios que quieran probar y adoptar este sistema ya pueden contactarse con Thorn directamente en [email protected].
Microsoft señaló que está explorando el uso de esta técnica en sus servicios de chat, incluido Skype.
De acuerdo con la ONG Argentina Cibersegura, cuando el grooming se limita al entorno digital, como envío de fotos íntimas o grabación de contenidos de la cámara web, el menor podría sufrir traumas psicológicos como víctima de la manipulación y las consecuencias sobre la privacidad en caso que dichos contenidos sean publicados.
En caso de que se concrete un encuentro cara a cara, las consecuencias podrían ser ya de carácter físico, pudiendo llegar -incluso- al abuso sexual, alertó. (Télam)