13
MONASTIR (METHODES ET OUTILS NUMERIQUES POUR L’ANALYSE ET LA CONCEPTION ROBUSTE DE STRUCTURES PRESENTANT DES INCERTITUDES) ANALYSES STOCHASTIQUES A L’AIDE DU MODULE M-Xplore DU LOGICIEL RADIOSS V. BRAIBANT, M. BULIK, M. LIEFVENDAHL, M. MARRO, S. MOLINIER, R. STOCKI, C. WAUQUIEZ christian.wauquiez@mecalog.fr MECALOG 2 RUE DE LA RENAISSANCE 92160 ANTONY, FRANCE Résumé Dans le domaine de la simulation numérique en mécanique, un problème qui se pose aux industriels aujourd’hui est le calcul de la variabilité d’un résultat par rapport à des incertitudes sur les données d’entrée. Celles-ci ont des origines diverses : fabrication, phénomènes de vieillissement, conditions d’utilisation, etc. Pour l’industriel, il s’agit non plus de connaître le résultat d’un calcul, mais d’évaluer la pertinence de ce résultat par rapport aux incertitudes du modèle. Le but est d’obtenir une conception « robuste », dont les performances restent satisfaisantes compte tenu des variabilités. Partant de cette analyse, le projet RNTL MONASTIR fût proposé à l’appel à propositions de 1999 pour explorer ces méthodes de variabilité dans le cadre des études de crash et de sécurité passive, un domaine où ces problèmes se posent avec acuité. Outre MECALOG, un des acteurs principaux du marché automobile mondial de la simulation au crash avec le logiciel RADIOSS, six autres partenaires ont constitué le consortium : le laboratoire MIP de l’Université Paul Sabatier de Toulouse pour les aspects mathématiques et les problèmes d’optimisation, la société lyonnaise CADOE pour sa spécialisation dans les calculs de variabilité, et quatre entreprises industriels : MICHELIN, PSA PEUGEOT-CITROEN, RENAULT et la SNCF. Fin 2001, au terme du projet, MECALOG s’est engagée dans l’industrialisation des résultats avec le développement du logiciel M-Xplore, nouveau module de l’environnement RADIOSS permettant une exploration stochastique de l’espace de conception. M-Xplore permet la paramétrisation interactive d’un modèle RADIOSS, la définition d’échantillonnages de conceptions, le pilotage des calculs associés, et l’analyse statistique des résultats, notamment pour identifier les différents scénarii de défaillance. M-Xplore est complètement intégré dans l’environnement métier M-Crash de RADIOSS. Les calculs peuvent être menés localement ou, compte tenu des ressources informatiques nécessaires à la réalisation de telles études, en mode ASP (pour Application Service Provider), grâce à un partenariat mis en place avec la société FUTJITSU SYSTEMS EUROPE. Après avoir recadré le projet de recherche MONASTIR et les principaux résultats obtenus, M-Xplore sera décrit de façon générale. Ses possibilités seront alors illustrées par des résultats d’études.

MONASTIR ANALYSES STOCHASTIQUES A L’AIDE DU MODULE M

  • Upload
    others

  • View
    4

  • Download
    0

Embed Size (px)

Citation preview

Page 1: MONASTIR ANALYSES STOCHASTIQUES A L’AIDE DU MODULE M

MONASTIR (METHODES ET OUTILS NUMERIQUES POUR L’ANALYSE ET LA CONCEPTION ROBUSTE

DE STRUCTURES PRESENTANT DES INCERTITUDES)

ANALYSES STOCHASTIQUES A L’AIDE DU MODULE M-Xplore DU LOGICIEL RADIOSS

V. BRAIBANT, M. BULIK, M. LIEFVENDAHL, M. MARRO, S. MOLINIER, R. STOCKI, C. WAUQUIEZ

[email protected]

MECALOG 2 RUE DE LA RENAISSANCE 92160 ANTONY, FRANCE

Résumé Dans le domaine de la simulation numérique en mécanique, un problème qui se pose aux industriels aujourd’hui est le calcul de la variabilité d’un résultat par rapport à des incertitudes sur les données d’entrée. Celles-ci ont des origines diverses : fabrication, phénomènes de vieillissement, conditions d’utilisation, etc. Pour l’industriel, il s’agit non plus de connaître le résultat d’un calcul, mais d’évaluer la pertinence de ce résultat par rapport aux incertitudes du modèle. Le but est d’obtenir une conception « robuste », dont les performances restent satisfaisantes compte tenu des variabilités. Partant de cette analyse, le projet RNTL MONASTIR fût proposé à l’appel à propositions de 1999 pour explorer ces méthodes de variabilité dans le cadre des études de crash et de sécurité passive, un domaine où ces problèmes se posent avec acuité. Outre MECALOG, un des acteurs principaux du marché automobile mondial de la simulation au crash avec le logiciel RADIOSS, six autres partenaires ont constitué le consortium : le laboratoire MIP de l’Université Paul Sabatier de Toulouse pour les aspects mathématiques et les problèmes d’optimisation, la société lyonnaise CADOE pour sa spécialisation dans les calculs de variabilité, et quatre entreprises industriels : MICHELIN, PSA PEUGEOT-CITROEN, RENAULT et la SNCF. Fin 2001, au terme du projet, MECALOG s’est engagée dans l’industrialisation des résultats avec le développement du logiciel M-Xplore, nouveau module de l’environnement RADIOSS permettant une exploration stochastique de l’espace de conception. M-Xplore permet la paramétrisation interactive d’un modèle RADIOSS, la définition d’échantillonnages de conceptions, le pilotage des calculs associés, et l’analyse statistique des résultats, notamment pour identifier les différents scénarii de défaillance. M-Xplore est complètement intégré dans l’environnement métier M-Crash de RADIOSS. Les calculs peuvent être menés localement ou, compte tenu des ressources informatiques nécessaires à la réalisation de telles études, en mode ASP (pour Application Service Provider), grâce à un partenariat mis en place avec la société FUTJITSU SYSTEMS EUROPE. Après avoir recadré le projet de recherche MONASTIR et les principaux résultats obtenus, M-Xplore sera décrit de façon générale. Ses possibilités seront alors illustrées par des résultats d’études.

Page 2: MONASTIR ANALYSES STOCHASTIQUES A L’AIDE DU MODULE M

1 Présentation du Projet MONASTIR Capitalisant une quarantaine d'années de développement, les méthodes d'analyse par éléments finis ont atteint aujourd'hui un degré de maturité important, et sont largement diffusées dans le monde industriel. Elles sont utilisées pour la simulation de phénomènes de plus en plus complexes, et permettent d'appréhender le comportement des produits futurs dès la phase de conception. Parallèlement, l'augmentation de la puissance informatique permet la réalisation de simulations de plus en plus précises. Prise en compte des variabilités En réduisant le nombre de prototypes physiques, la simulation permet de diminuer les délais et les coûts de conception. Il reste néanmoins des axes d’améliorations possibles, car des différences importantes peuvent apparaître entre des résultats d’essais expérimentaux et de simulation. Les valeurs des résultats, ou la nature même des comportements physiques peuvent être différents, et on a alors tendance à faire confiance aux résultats expérimentaux. Pourtant en répétant plusieurs fois le même essai sur plusieurs prototypes réels, on obtiendra aussi des résultats ou des comportements différents. Ceci est dû aux variabilités, ou incertitudes, présentes dans les caractéristiques du produit ou dans ses conditions d’utilisation. Ces variabilités ont des origines diverses : processus de fabrication, phénomènes de vieillissement, environnement, facteur humain, conditions d’utilisation difficiles à définir, etc. Elles peuvent affecter les caractéristiques géométriques et dimensionnelles du produit, ses propriétés physiques et matériaux, les chargements, les conditions aux limites, l’existence de défauts ou de tensions résiduelles, etc. Le problème qui se pose aux industriels aujourd’hui est la prise en compte dès la phase de conception de ces variabilités. Il s’agit non plus de concevoir un produit de façon déterministe, mais d’obtenir une conception « robuste », dont les performances restent satisfaisantes dans l’espace de variabilités de ses paramètres. Ce n'est qu'à la condition où la qualité des résultats et l'erreur attachée à ces résultats seront parfaitement maîtrisés que le prototypage virtuel prendra toute sa dimension. Simulations de Crash Un domaine particulièrement concerné est celui de la simulation au crash des véhicules. Le crash est en effet un phénomène fortement non-linéaire et à caractère bifurcatoire en fonction de paramètres de conception (le terme « chaotique » est même utilisé dans [1]). Au cours de l’écrasement d’un véhicule, des centaines de pièces et de composants se compriment, flambent, et entrent en contact les uns avec les autres. Même pour de faibles variations des paramètres du modèle, les résultats peuvent être par conséquent très différents. L’une des voies possibles consiste à évaluer plus précisément les incertitudes du modèle. Par exemple, en faisant précéder la simulation du choc par l'étude de la fabrication et de l'assemblage du véhicule (cela correspond par exemple au couplage entre l'emboutissage et le crash). Une alternative plus générale consiste à accepter le principe d'une incertitude sur les données et à essayer d'évaluer l'intervalle de variation dans lequel se situeront les résultats. MONASTIR Le projet RNTL MONASTIR (“Méthodes et Outils Numériques pour l'Analyse et la conception Robuste de STructures présentant des InceRtitudes”) s’est déroulé durant l’année 2001, avec pour objectif d’explorer les méthodes de variabilités dans le cadre des études de crash. Le consortium comptait les partenaires suivants : - Deux éditeurs de logiciels scientifiques et techniques, l’un spécialisé dans la simulation des problèmes de dynamique structurale fortement non linéaire (MECALOG), l’autre dans le développement de solutions logicielles permettant la réalisation d’analyses paramétriques pour l’évaluation et l’optimisation de conceptions (CADOE) ;

Page 3: MONASTIR ANALYSES STOCHASTIQUES A L’AIDE DU MODULE M

- Un laboratoire de recherche universitaires en mathématiques appliquées spécialisé dans les méthodes d’optimisation de structures (laboratoire MIP de l’Université Paul Sabatier à Toulouse, U.P.S.-MIP) ; - Quatre groupes industriels utilisateurs de logiciels de dynamique non linéaire explicite ayant accepté de participer à un groupe d’utilisateurs finaux et s’impliquant dans la spécification des besoins industriels, la réflexion et la validation des méthodes et des démonstrateurs réalisés (RENAULT, PSA, MICHELIN et la SNCF). Axes de recherche et résultats principaux L’objectif du projet est de pouvoir vérifier la robustesse d’un modèle, c’est à dire mesurer la dispersion des résultats en fonction des incertitudes des paramètres. Il faut également pouvoir corriger le modèle (en modifiant la valeur d’un paramètre ou en réduisant son intervalle d’incertitude), ce qui implique de comprendre les effets des paramètres sur les résultats. Trois axes ont été explorés durant le projet. • L'analyse de sensibilité (Mecalog et CADOE). Il s’agit d’utiliser les dérivées des réponses par

rapport aux variables aléatoires pour construire des fonctions explicites, traduisant la dépendance des résultats par rapport aux paramètres. Ces fonctions peuvent ensuite servir à quantifier la dispersion des résultats, et à mieux comprendre le comportement du modèle. La difficulté de cette méthode réside dans la mise en œuvre du calcul de dérivées analytiques en crash. Des progrès ont été réalisés dans la compréhension des difficultés de cette méthode, sans qu’une solution industriellement satisfaisante n’ait été trouvée. Au delà, il a été réalisé qu’étant donné le caractère fortement non-linéaire et bifurcatoire des simulations de crash, l’intérêt d’utiliser des dérivées était discutable. L’industriel ne souhaite pas à proprement la dérivée mathématique de la réponse mais des tendances globales en quelques points caractéristiques des réponses.

• La construction de surfaces de réponse au moyen de réseaux de neurones (U.P.S.-MIP et

CADOE). Il s’agit ici de construire une approximation des résultats basée sur un plan d’expériences construit au fur et à mesure. L’originalité de l’approche proposée par le MIP se situe dans la méthode d’apprentissage, qui met en œuvre une technique de régularisation adéquate. L’approche a été validée par MIP et CADOE sur des cas tests industriels de crash fournis par MECALOG. Les premières conclusions tendent à montrer la bonne efficacité des réseaux de neurones (en les comparant aux méthodes d’approximation polynomiale) pour la prise en compte des fortes non linéarités des surfaces reliant les observables aux paramètres.

• Les approches stochastiques (Mecalog). Il s’agit d’analyser les résultats de multiples calculs

exécutés pour des valeurs aléatoires des paramètres. Dans cette méthode très pragmatique, l’information est apportée par des calculs exacts, il n’y a pas de modélisation mathématique du comportement du modèle sur l’espace de conception. Pour autant, de nombreuses informations peuvent être tirées des bases de données de résultats grâce à des méthodes d’analyse de données. L’état de l’art dans ce domaine est d’utiliser des simulations de Monte-Carlo. Afin de réduire les coûts numériques, deux voies ont été explorées : la constructions d’échantillonnages optimaux, et le calcul d’intervalles de confiance intégrant les incertitudes provenant de la taille limitée de l’échantillon.

M-Xplore En conclusion du projet, il est apparu que la meilleure solution aux problèmes d’incertitudes en crash reste l’approche de type stochastique : prise en compte des spécificité des problèmes de dynamique explicite, bon rapport coût de calcul / information apportée, et utilisation possible de méthodes d’analyse de données telles qu’analyse des corrélations, analyse en composantes principales, et séparation des échantillons en fonctions de critères sur les résultats. C’est donc naturellement cette approche qui a été retenue par Mecalog pour le développement d’un module dédié à la prise en compte de variabilités.

Page 4: MONASTIR ANALYSES STOCHASTIQUES A L’AIDE DU MODULE M

2 M-Xplore, Module d’Analyses Stochastiques du Logiciel RADIOSS Suite au projet MONASTIR, Mecalog a engagé le développement d’un nouveau module permettant de mener facilement des études stochastiques avec le logiciel RADIOSS. Ce module, M-Xplore, est intégré dans le logiciel de pré-traitement M-Crash, outil métier permettant de créer des modèles de crash de haute qualité. Il permet la paramétrisation interactive d’un modèle RADIOSS, la définition d’échantillonnages de conceptions, le pilotage des calculs associés, et l’analyse statistique des résultats, notamment pour identifier les différents scénarii de défaillance. 2.1 Paramétrisation du Modèle La paramétrisation s’effectue dans l’environnement M-Crash, présenté sur la figure ci-dessous. Le but de cette étape est de créer une liste de variables et de réponses pour un modèle.

Figure 1 : M-Crash, et l’interface permettant de définir les variables et réponses d’un modèle. Le principe de l’interface utilisateur est de sélectionner un objet (pièce, propriété physique, loi matériau, nœud, élément, condition aux limites, interface de contact, etc.), et de se voir proposer la liste des attributs définissant cet objet. Il suffit alors de choisir ceux que l’on souhaite faire varier et de donner un nom aux variables ainsi crées. Les variables peuvent être définies parmi l’ensemble de la définition éléments finis du modèle :

- Propriétés physiques (par exemple l’épaisseur d’une pièce de type coque mince, les moments d’inertie ou la section d’une pièce de type poutre, etc.),

- Propriétés matériaux (module d’élasticité, contrainte élastique maximum, etc.), - Coordonnées d’un nœud. - Coefficient multiplicateur de conditions aux limites en vitesse ou en déplacement, - Vitesse initiale du véhicule, - Paramètres d’une interface de contact (coefficient de frottement), - Position d’un mur rigide, etc.

Page 5: MONASTIR ANALYSES STOCHASTIQUES A L’AIDE DU MODULE M

Des paramètres plus avancés, contrôlant le modèle dans son ensemble, sont aussi disponibles : facteur d’échelle dans une direction donnée, rotation ou translation d’une pièce, etc. La modification des données du modèle correspondant aux valeurs des variables est entièrement transparente pour l’utilisateur, qui n’a jamais à éditer le fichier de données du modèle. Les réponses peuvent être définies parmi toutes les quantités observables sur tous les objets d’un modèle, par exemple l’énergie de déformation d’une pièce, le déplacement ou l’accélération d’un nœud, la contrainte dans un élément, les efforts passant dans une section, etc. 2.2 Définition d’une Etude Stochastique L’étape suivante consiste à définir une étude. Cela se fait grâce à la fenêtre « Task Definition », présentée sur la figure 2. L’interface permet de définir les informations suivantes :

- Activation d’un certain nombre de variables et de réponses, - Définition de la loi de distribution des variables actives (type de distribution, valeur

moyenne et écart-type, etc.), - Nombre d’individus de l’échantillon, - Méthode d’échantillonage. A ce niveau, les résultats du projet MONASTIR sont utilisés. On

détaille les différentes méthodes dans les paragraphes suivants.

Figure 2 : La fenêtre « Task Definition » Monte Carlo C’est la méthode la plus classique. Son principe est de tirer aléatoirement N points de l’espace de conception, en suivant les lois de distribution des variables d’entrée, puis de boucler sur un code de calcul, pour calculer la réponse du modèle en chacun de ces points. Le principal défaut de cette méthode est qu’elle fait appel à un nombre important de simulations, éventuellement longues et coûteuses : par exemple, si on cherche une probabilité de défaillance à 10-n près, on est obligé d’effectuer 10n+1 échantillons pour un calcul exact. Différentes techniques existent pour améliorer l’efficacité des simulations de Monte-Carlo et rendre les résultats plus robustes. Parmi elles, les méthodes de réanalyse rapide ou d’approximation ne sont pas intéressantes dans le cas du crash, car on a alors une forte perte d’information due aux modèles d’approximation utilisés sur l’espace de conception. Par contre les méthodes de réduction de la variance, dont le principe est de générer des points qui couvrent au mieux l’espace de conception, sont tout à fait appropriées.

Page 6: MONASTIR ANALYSES STOCHASTIQUES A L’AIDE DU MODULE M

Carré Latin - Tirage descriptif Le principe de cette méthode est de découper l’espace de conception en zones d’équiprobabilité (définies en fonction des lois de distribution choisies), et de tirer de manière aléatoire un point dans chaque zone, de manière à ce qu’il n’y ait qu’un seul point dans chaque intervalle d’équiprobabilité de chaque variable (voir la figure 3).

Figure 3 : Tirage simple et tirage descriptif. Carré Latin Optimal (OLH) L’optimisation d’échantillonages de type carré latin a pour but d’éviter au maximum le regroupement d’individus dans une même région de l’espace. Elle consiste à trouver le tirage descriptif qui maximise la distance minimum entre deux points, et conduit à des échantillonages qui couvrent au mieux l’espace de conception. Ceci permet par conséquent de réduire le nombre de calculs nécessaires. La comparaison de deux distributions obtenues avec une méthode de Monte Carlo et un carré latin optimal est présenté sur la figure suivante.

Figure 4. Distribution d’un échantillon de 100 points en 2 dimensions. A droite un Monte Carlo, à gauche, un OLH.

L’intérêt du carré latin apparaît clairement sur cette figure. Dans le cas du Monte Carlo, certains point sont très proches les uns des autres alors que certaines régions de l’espace sont inexplorées. Une implémentation du carré latin optimal est présentée dans [2]. Par rapport à celle-ci, des efforts importants ont été effectués dans M-Xplore afin de réduire la complexité du problème d’optimisation et les temps de calcul nécessaires. Voir la référence [3] pour plus de détails.

Tirage Aléatoire Simple Tirage Descriptif

Page 7: MONASTIR ANALYSES STOCHASTIQUES A L’AIDE DU MODULE M

Nodal Noise Une dernière méthode, appelée Nodal Noise, est disponible dans M-Xplore. Son principe est d’activer une option de RADIOSS, qui effectue des perturbations aléatoires des coordonnées de tous les nœuds du modèle avant de commencer le calcul. En exécutant une série de 100 calculs avec cette option pour différentes valeurs du germe du générateur de nombres aléatoire, on obtient la dispersion des résultats en fonctions de micro-perturbation du modèle. Cela permet d’évaluer sa robustesse, et d’observer quelles zones du modèle sont les plus sensibles. 2.3 Lancement des calculs

Les calculs RADIOSS correspondant à chaque individu de l’échantillon peuvent être menés localement ou, compte tenu des ressources informatiques nécessaires à la réalisation de telles études, en mode ASP (pour Application Service Provider), grâce à un partenariat mis en place avec la société FUTJITSU SYSTEMS EUROPE. L’interface permettant de lancer les calculs automatiquement est présentée sur la figure 5a. En mode local, elle permet à l’utilisateur de gérer la charge de calcul (nombre de processeurs par calcul, et nombre de séries de calculs à lancer simultanément). La figure 5b montre la fenêtre développée pour suivre le déroulement des calculs en cours.

Figures 5a et 5b : Les fenêtres « Submit Task » et « Get Status » Remarque : Lors de l’exécution d’un échantillon de N calculs sur une plate-forme à p processeurs, le meilleur speed-up est obtenu en lançant simultanément N/p calculs sur chaque processeur. 2.4 Post-traitement M-Xplore comporte un module permettant d’analyser les résultats d’une étude stochastique. Les résultats disponibles pour chaque individu de l’échantillon sont les évolutions temporelles des réponse définies sur le modèle. Des valeurs scalaires peuvent être obtenues grâce aux opérateurs suivants : moyenne temporelle, minimum ou maximum sur un intervalle de temps, ou valeur à un instant donné. Un certain nombre de fonctionnalités statistiques de base sont disponibles :

- Calcul des moments statistiques des réponses, - Tracé d’histogrammes, - Tracé de nuages de points.

Des fonctions plus avancées sont également proposées. Elles sont décrites dans les paragraphes suivants.

Page 8: MONASTIR ANALYSES STOCHASTIQUES A L’AIDE DU MODULE M

Calcul d’intervalles de confiance A ce niveau, les résultats du projet MONASTIR sont utilisés. Pour évaluer l’intervalle de confiance d’une réponse, on calcule sa moyenne et son écart-type, puis on fait une hypothèse sur la nature de sa distribution. On utilise alors cette loi pour déterminer les intervalles de confiances à niveau de confiance donné. Ceci est résumé par la figure suivante.

Figure 6 : Méthode de calcul d’un intervalle de confiance. L’originalité de la méthode développée dans le cadre de MONASTIR est de supposer que la réponse suit une loi de Student-Fisher. Cette loi a une allure gaussienne, et dépend du nombre de points de l’échantillon. En supposant que la fonction de densité du critère suit une loi de Student-Fischer à (N-1) degrés de liberté, on prend en compte l’incertitude due aux petits échantillons. Remarque : Pour utiliser cette méthode, il faut vérifier que la distribution de la réponse a bien une allure gaussienne. Ceci est facilité dans M-Xplore, qui lorsqu’on demande un histogramme affiche en superposition la loi de distribution de Student-Fischer correspondante (mêmes moyenne et écart-type). M-Xplore permet de calculer les intervalles de confiances d’une réponse scalaire, mais aussi d’afficher les intervalles de confiance d’une réponse en fonction du temps (corridors de confiance). Ceci est particulièrement intéressant pour comprendre le comportement du modèle au cours du temps. Analyse de données M-Xplore permet de construire une matrice de données à partir de l’ensemble des résultats, et propose des fonctionnalités avancées telles que :

- Calcul et analyse de la matrice de corrélation. Cela donne toutes les corrélations entre les données. Si celles-ci sont l’ensemble des variables et une réponse, la matrice de corrélation peut aider à comprendre comment des modifications des variables affectent la réponse. Si les données sont l’ensemble des réponses, cela peut servir à repérer les réponses fortement corrélées entre elles et donc à réduire le nombre de réponses à traiter.

- Analyse en composantes principales. Il s’agit d’une technique de réduction du nombre de dimensions d’un problème. A partir d’une base de données à N variables, l’ACP détermine un système d’axes dans lequel la projection de l’information initiale est la mieux représentée. Cela peut aider à comprendre les corrélations entre les données, et permet de travailler dans un espace à moins de dimensions.

- Séparation d’échantillons dans l’espace des variables. Si un groupe d’individus est défini (ceux qui donnent un comportement particulier d’un modèle par exemple), cette fonctionnalité permet de trouver un plan de coupe de l’espace des variables de conception dans lequel la différence entre ces individus et tous les autres est la plus clairement visible.

Ces fonctionnalités seront utilisées dans le cadre de l’étude d’un exemple industriel, dans le paragraphe suivant.

X X

σX

Tirage Descriptif Histogramme des répartitions

Intervalle de Confiance

Page 9: MONASTIR ANALYSES STOCHASTIQUES A L’AIDE DU MODULE M

3 Etude d’une exemple industriel On considère le crash d’un longeron de véhicule sur un mur rigide. Le longeron est composé de trois pièces. Il est fixé sur la partie droite, et un mur rigide vient l’impacter à la vitesse de 35km/h à l’autre extrémité. Deux paramètres sont définis sur chaque pièce: leur épaisseur et un facteur d’échelle de leur loi d’écrouissage. Pour chacun de ces six paramètres, on définit une valeur moyenne et un écart-type, ainsi qu’une distribution de probabilité uniforme. On réalise un OLH de 300 individus. Les critères observés sont les suivants : - Energie interne globale du modèle, - Vitesse d’un nœud situé à l’interface des parts 1 et 2. Etude de la robustesse du modèle Suite à l’exécution des 300 calculs, on analyse les résultats en commençant par demander un corridor de confiance de la vitesse au nœud d’interface. Le résultat est le suivant.

Figure 7 : Corridor de confiance de la vitesse au nœud d’interface. On observe qu’à partir de 10 ms, l’écart-type de la vitesse augmente. Il semble donc que des différences de comportement interviennent autour de cet instant. On vérifie cela en affichant les histogrammes de cette même réponse en différents instants.

Figure 8 : Histogrammes de la vitesse à t = 5, 10, 20, et 30 ms.

part 1 part 2

part 3

Page 10: MONASTIR ANALYSES STOCHASTIQUES A L’AIDE DU MODULE M

On trace maintenant la vitesse du nœud d’interface en fonction d’un paramètre, sous forme d’un nuage de points. Cela permet de voir très clairement les deux types de comportement.

Figure 9 : Vitesse du nœud d’interface à l’instant final en fonction d’un des paramètres. Ce tracé permet d’identifier facilement les deux groupes d’individus correspondant aux deux comportements. Pour deux individus choisis dans chacun des groupes, on examine maintenant les déformées du modèle.

Figure 10 : Déformées du longeron à l’instant final. On observe deux comportements complètement différents. Dans la majorité des cas, on a une compression stable du longeron, alors que dans quelques cas, la structure flambe. Le comportement souhaité est bien sûr le premier, pour sa stabilité et sa forte absorption d’énergie. Compréhension du modèle : analyse des corrélations On cherche maintenant à comprendre comment les paramètres concourent à la création des deux groupes de comportement. Pour ce faire, on calcule avec M-Xplore la matrice des corrélations entre la vitesse du nœud d’interface et les six paramètres. On obtient les résultats suivants :

Thick1 Thick2 Thick3 Mat1 Mat2 Mat3 V 0.16 -0.19 0.03 0.46 -0.17 -0.03

- La faible corrélation des paramètres de la pièce 3 avec la vitesse semble nous indiquer que

ce constituant n’a aucune influence sur le problème, - Le fait que (thick2,mat2) soient corrélés négativement nous indique que l’augmentation de

ces paramètres induit une diminution de la vitesse. - Le fait que (thick1,mat1) soient corrélés positivement nous indique que l’augmentation de

ces paramètres induit une augmentation de la vitesse.

groupe 1

groupe 2

Groupe 1 Groupe 2

Page 11: MONASTIR ANALYSES STOCHASTIQUES A L’AIDE DU MODULE M

Ceci correspond bien à la réalité physique ; la pièce 3 ne participe pas au comportement car elle se trouve à l’arrière du modèle. Par ailleurs, si on augmente la rigidité de la pièce 1, elle transmettra plus de déplacements au nœud d’interface. Si en plus on diminue la rigidité de la pièce 2, elle se déformera plus et le nœud d’interface se déplacera d’autant plus. Analyse en composantes principales Cherchons maintenant à comprendre les caractéristiques des points se trouvant dans le groupe 2. On utilise pour cela l’ACP, qui permet de trouver le plan principal (à 2 dimensions) dans lequel est contenu le maximum de l’information présente dans l’espace initial à 5 dimensions (on ne considère plus les paramètres de la pièce 3). Dans cet espace, on représente la projection des axes initiaux, ce qui permet de comprendre la signification des axes principaux. Ceci est montré sur la figure 11a. On projette alors les échantillons dans cet espace, et on analyse la position du groupe 2 (figure 11b).

Figures 11a et 11b : Axes initiaux et nuage de points projetés dans le repère principal. En observant la position du groupe 2 par rapport aux axes initiaux, on voit qu’ils correspondent à une forte rigidité de la pièce 1 (axes Mat1 et Ep1) et une faible rigidité de la pièce 2 (axes Mat2 et Ep2). Cette différence de rigidité provoque la compression de la pièce 2 avant celle de la pièce 1. L’instabilité ainsi créée et le bras de levier de la pièce 1 provoque alors le flambage du longeron. Séparation des échantillons dans l’espace des variables On cherche maintenant à trouver de façon précise la zone de l’espace de conception dans laquelle se trouvent les points du groupe 2. Si on trace des nuages de points montrant l’épaisseur de la pièce 1 en fonction de celle de la pièce 2, et la même chose pour les paramètres matériaux, on retrouve les mêmes informations qu’avec l’ACP, mais il n’y a pas de limite claire (voir figure 12).

Figure 12 : Nuages de points dans l’espace de conception. En noir, les points du deuxième groupe.

Ep1

Ep2

Mat1

Mat2

Vx

Page 12: MONASTIR ANALYSES STOCHASTIQUES A L’AIDE DU MODULE M

On utilise donc une méthode de séparation, qui permet de trouver la coupe à 2 dimensions de l’espace de conception dans laquelle la différence est la plus clairement visible. Cette méthode, implémentée dans M-Xplore, consiste en un problème d’optimisation dont la fonction objectif est la projection de la distance entre les deux groupes sur la normale au plan de séparation. L’utilisation de cette méthode conduit aux résultats suivants.

Figure 13 : Plan de séparation des variables. A gauche du plan, les points du groupe 2, à droite, ceux du groupe 1.

L’équation du plan trouve est la suivante :

-0.67 Ep1 –0.41 Mat1 + 0.37 Ep2 + 0.45 Mat2 +0.17 Ep3 –0.03 Mat3 - 0.03= 0

Ses coefficients permettent de retrouver certaines de nos conclusions. Mais surtout elle donne une contrainte explicite en fonction des paramètres, qui permet de prédire l’appartenance d’un point à l’un ou l’autre des groupes sans lancer de calcul. 4 Conclusion Au terme du projet MONASTIR, trois grands domaines ont été investigués : • Les méthodes stochastiques, • Les méthodes d’analyse de sensibilité, • Les techniques de construction de surfaces de réponse utilisant les réseaux de neurones. Dans chacun de ces domaines, des progrès significatifs ont été acquis. Les méthodes stochastiques étant aujourd’hui le moyen le plus adapté pour traiter des problèmes industriels de variabilité en crash, Mecalog s’est orienté dans cette voie pour son outil M_Xplore. Ce module, intégré dans l’environnement RADIOSS, permet à l’utilisateur de mener facilement des études stochastiques, et de bénéficier des efforts de recherche effectués. M-Xplore figure au catalogue des produits de Mecalog. Il est par ailleurs actuellement utilisé par pour la réalisation d’une simulation stochastique d’un modèle de crash de véhicule complet pour le compte de RENAULT. Les résultats de simulations sur bases de petits échantillons seront comparés aux résultats obtenus sur un échantillon de grande taille. Les ressources informatiques nécessaires pour réaliser ce test sont considérables et sont assurées par FUJITSU SYSTEMS EUROPE. Les résultats de cette étude devraient être l’objet d’une publication commune Mecalog / Renault / Fujitsu.

Page 13: MONASTIR ANALYSES STOCHASTIQUES A L’AIDE DU MODULE M

Références [1] Jacek Marczyk : Stochastic multidisciplinary improvement : beyond optimisation. In 8th

AIAA/NASA/ASAF/ISSMO Symposium on Multidisciplinary Analysis and Optimization, Long Beach , September 2000.

[2] William Li : Optimal design using CP algorithms. Proceedings for 2nd world conference of the

international association for statistical computing, 1997 [3] Mattias Liefvendahl : An implementation and evaluation of the CP-algorithm for

optimisation of latin hypercubes. Technical report, Mecalog, 2002