Le système est parvenu à identifier les menteurs avec 90% de précision, un score bien supérieur aux performances humaines en la matière.
bien supérieur, #mouais …
Extrait de l’abstract de l’article original :
Using various classifiers, our automated system obtains an AUC of 0.877 (10-fold cross-validation) when evaluated on subjects which were not part of the training set. Even though state-of-the-art methods use human annotations of micro-expressions for deception detection, our fully automated approach outperforms them by 5%. When combined with human annotations of micro-expressions, our AUC improves to 0.922.
D’ailleurs, le véritable lien vers l’article commenté est celui-ci
• pour le résumé
Deception Detection in Videos
▻https://arxiv.org/abs/1712.04415
• pour l’article en pdf
▻https://arxiv.org/pdf/1712.04415.pdf
Le lien, erroné donc, dans le texte est cependant fort intéressant : il pointe vers un article montrant l’extrême facilité pour un « attaquant » de perturber les résultats des algorithmes de #deep_learning en polluant, même légèrement, la base d’apprentissage sans intervenir sur l’algorithme. Ce type d’attaque est difficilement détectable.
[1712.05526] Targeted Backdoor Attacks on Deep Learning Systems Using Data Poisoning
▻https://arxiv.org/abs/1712.05526
We conduct evaluation to demonstrate that a backdoor adversary can inject only around 50 poisoning samples, while achieving an attack success rate of above 90%. We are also the first work to show that a data poisoning attack can create physically implementable backdoors without touching the training process. Our work demonstrates that backdoor poisoning attacks pose real threats to a learning system, and thus highlights the importance of further investigation and proposing defense strategies against them.
#data_poisoning
variante malveillante du célèbre principe #GIGO #garbage_in_garbage_out