Réseaux de neurones récurrents flexibles



Réseaux de neurones récurrents flexibles

Réseaux de neurones récurrents flexibles
Research Paper / Conférence sur l'Apprentissage automatique (CAp) / Jun 2020

Nous présentons une méthode permettant d’ajuster le point de fonctionnement des r´eseaux de neurones r´ecurrents (RNN) pendant l’analyse d’une s´equence en jouant sur le compromis pr´ecision/coˆut de calcul. Cela ouvre la possibilit´e d’adapter les RNN en temps r´eel pour s’adapter aux contraintes de calcul lors de l’exécution. Cela a un intérêt sur du mat´eriel dont les ressources sont partagées entre plusieurs processus, notamment sur des équipements mobiles. Cette approche implique des modifications minimes du modèle et évite donc de charger de nouveaux param`etres depuis une mémoire lente. Nous évaluons cette approche sur 2 types de tˆaches : l’addition et la reconnaissance d’activit´e humaine. Nous d´emontrons que cette approche se comporte bien et modifie le comportement d’un RNN. La précision et le coût de calcul qui en résultent, correspondent `a une moyenne pondérée des différentes configurations utilisées. Le poids de chaque configuration augmente avec le nombre de pas de temps pendant lequel cette configuration est utilisée.