1
Poster template by ResearchPosters.co.za A B Algorithmes d’apprentissage et réseau de neurones appliqués au calcul scientifique Sory Bineta DIALLO Promo 2019 – Stage Année 4 [email protected] 1 Résumé Evaluer et optimiser les performances de Tensorflow/Keras sur un problème de reconnaissance de l’ordre de précision de schémas numériques pour un problème modélisé par une EDP hyperbolique grâce à une carte graphique Nvidia 1080TI dans une enceinte dite eGPU. Résultats classifier par exemple les quatre schémas suivants : upwind, ultrabee, minmod et superbee. 3600 images de train et 1000 images de test. - Simple Neuronal Network: 87.6% (score = accuracy = taux de reconnaissance) - Neuronal Network (three layers) : 92.6 % - Convolutional Neuronal Network (CNN) with two convolution layers:99% - Convolutional Neuronal Network with three convolution layers: 99.4%. -> ce réseau de neurones n’a pas reconnu que 1000*(1-0,994) = 6 images. améliorer le score en augmentant la base de train. Le CNN n’a pas reconnu que 8000*(1-0,999875) = 1 image. Il y’a un facteur 1/100 entre le temps de calcul avec GPU et celui sans GPU. Méthode et Matériel Point de départ: expérience de reconnaissance de chiffres manuscrits de la base de données MNIST. Analogie avec la reconnaissance de schémas : un résultat de calcul d’un schéma numérique est une image. Upwind Minmod LW Ultra-Bee Génération des données: pour résoudre chaque schéma, on utilise une donnée initiale: u0 (x) = t1 f (x − a1 ∆x) + t2 g (x − a2 ∆x) + t3 h(x − a3 ∆x) + t4 k(x − a3 ∆x) , où f, g, h, k sont des fonctions données Boucle sur a1 , a2 , a3, a4 −1, 0, 1, . . . , 8: if a1 = −1 then t1 = 0 else t1 = 1. if a2 = −1 then t2 = 0 else t2 = 1. if a3 = −1 then t3 = 0 else t3 = 1. if a 4 = −1 then t4 = 0 else t4 = 1 . 4 × 10000 images : 1/10 tirées au hasard pour les tests, 9/10 pour le training Pour les tests, on ajoute les données de Validation de Hesthaven [4]. Transformer les images sous format MNIST puis les donner en entrée au réseau de neurones. . Matériel utilisé: PC+GPU Nvidia sous Linux ou un MacBook–Pro sous Windows-10 associés à une carte graphique Nvidia 1080TI. + Conclusion Evaluer et optimiser les performances de différentes architectures de réseau de neurones sous Tensorflow/Keras sur un problème de reconnaissance de l’ordre de précision de schémas numériques pour un problème modélisé par une équation de transport. Obtenu d’excellentes performances en temps de calcul en utilisant une carte graphique Nvidia 1080TI. Références & Remerciements [1] Learning Tensorflow, Hope and al, 2017, O’Reilly [2] Machine Learning A Probabilistic Perspective, Murphy, 2012, MIT [3] quelques subroutines transmises par O. Pironneau [4] Artificial neural network/troubled-cell indicator, Ray-Hesthaven, 2017 Remerciements: - Monsieur Bruno Després, enseignant chercheur au LJLL/UPMC. - Monsieur Olivier Pironneau, Professeur Emérite au LJLL/UPMC. 6 5 1 Introduction Utiliser des méthodes de deep learning pour les problèmes modélisés par des EDP (EX: équation de transport) sous ou Schémas numériques de plus en plus non linéraires et complexes. Enjeux: traitement efficace de ces problèmes. EX: Déterminer l’ordre de précision de schémas numériques complexes. De nombreux travaux [3, 4] ont été réalisés très récemment. 2 ? 3 4

Algorithmes d’apprentissage et réseau de neurones appliqués au … · 2018-09-13 · Title: A1 Portrait Poster Template Author: Copywrite Digital - Tralee - 066 7128671 Subject:

  • Upload
    others

  • View
    2

  • Download
    0

Embed Size (px)

Citation preview

Page 1: Algorithmes d’apprentissage et réseau de neurones appliqués au … · 2018-09-13 · Title: A1 Portrait Poster Template Author: Copywrite Digital - Tralee - 066 7128671 Subject:

Poster template by ResearchPosters.co.za

A

B

Algorithmes d’apprentissage et réseau de neurones appliqués au calcul scientifique

Sory Bineta DIALLO

Promo 2019 – Stage Année 4 [email protected]

1

RésuméEvaluer et optimiser les performances de Tensorflow/Keras sur un problème de reconnaissance de l’ordre de précision de schémas numériques pour un problème modélisé par une EDP hyperbolique grâce à une carte graphique Nvidia 1080TI dans une enceinte dite eGPU.

Résultats classifier par exemple les quatre schémas suivants : upwind, ultrabee,

minmod et superbee. 3600 images de train et 1000 images de test. - Simple Neuronal Network: 87.6% (score = accuracy = taux de reconnaissance) - Neuronal Network (three layers) : 92.6 % - Convolutional Neuronal Network (CNN) with two convolution layers:99% - Convolutional Neuronal Network with three convolution layers: 99.4%. -> ce réseau de neurones n’a pas reconnu que 1000*(1-0,994) = 6 images.

améliorer le score en augmentant la base de train.

Le CNN n’a pas reconnu que 8000*(1-0,999875) = 1 image.

Il y’a un facteur ≈1/100 entre le temps de calcul avec GPU et celui sans GPU.

Méthode et Matériel Point de départ: expérience de reconnaissance de

chiffres manuscrits de la base de données MNIST.

Analogie avec la reconnaissance de schémas : un résultat de calcul d’un schéma numérique est une image.

Upwind Minmod LW Ultra-Bee

Génération des données: pour résoudre chaque schéma, on utilise une donnée initiale: u0 (x) = t1 f (x − a1 ∆x) + t2 g (x − a2 ∆x) + t3 h(x − a3 ∆x) + t4 k(x − a3 ∆x) , où f, g, h, k sont des fonctions données

Boucle sur a1 , a2 , a3, a4 −1, 0, 1, . . . , 8: ∈if a1 = −1 then t1 = 0 else t1 = 1. if a2 = −1 then t2 = 0 else t2 = 1. if a3 = −1 then t3 = 0 else t3 = 1. if a 4 = −1 then t4 = 0 else t4 = 1 .

4 × 10000 images : 1/10 tirées au hasard pour les tests, 9/10 pour le training

Pour les tests, on ajoute les données de Validation de Hesthaven [4].

Transformer les images sous format MNIST puis les donner en entrée au réseau de neurones.

.

Matériel utilisé: PC+GPU Nvidia sous Linux ou un MacBook–Pro sous Windows-10 associés à une carte graphique Nvidia 1080TI.

+

Conclusion Evaluer et optimiser les performances de différentes architectures de réseau de neurones sous Tensorflow/Keras sur un problème de reconnaissance de l’ordre de précision de schémas numériques pour un problème modélisé par une équation de transport.

Obtenu d’excellentes performances en temps de calcul en utilisant une carte graphique Nvidia 1080TI.

Références & Remerciements[1] Learning Tensorflow, Hope and al, 2017, O’Reilly [2] Machine Learning A Probabilistic Perspective, Murphy, 2012, MIT [3] quelques subroutines transmises par O. Pironneau [4] Artificial neural network/troubled-cell indicator, Ray-Hesthaven, 2017

Remerciements: - Monsieur Bruno Després, enseignant chercheur au LJLL/UPMC. - Monsieur Olivier Pironneau, Professeur Emérite au LJLL/UPMC.

6

5

1

Introduction Utiliser des méthodes de deep learning pour les problèmes modélisés par

des EDP (EX: équation de transport) sous

ou

Schémas numériques de plus en plus non linéraires et complexes.

Enjeux: traitement efficace de ces problèmes. EX: Déterminer l’ordre de précision de schémas numériques complexes.

De nombreux travaux [3, 4] ont été réalisés très récemment.

2

?

3

4