L’instrumentation des essais de structure par imagerie : qu’est-ce que j’y gagne ?

Il est assez simple de comprendre l’intérêt technique de la mesure par corrélation d’images. Pour l’ingénieur d’essai, il pourra faire une mesure sur une zone plus large, mieux comprendre les phénomènes physiques en jeu, réaliser une mesure sans contact… L’ingénieur simulation, quant à lui, pourra recaler le modèle de simulation sur un jeu de données plus complet, et ainsi améliorer sa prédictivité, comme on peut le voir par exemple sur le test du bogie Alstom dont nous avons déjà parlé pour les aspects technique.

Mais justement, que peut rapporter l’instrumentation sur un tel essai de structure ? Monter en compétences sur une nouvelle technique, cela en vaut-il la peine du point de vue financier ? EikoSim vous guide pour mettre en lumière les principaux points d’amélioration possibles.

Pendant l’essai : des sources d’économies

Une des premières choses que l’utilisateur de corrélation d’images a envie de faire, c’est de se passer de jauges de déformation. Longues à installer et coûteuses (on entend souvent le chiffre de 100€ par jauge collée), les jauges de déformation physiques peuvent ainsi être remplacées par des jauges de déformation virtuelles, au moins sur la plage de mesure habituelle de la corrélation d’images (niveau de déformation au moins supérieure à 0.01%).

Sur l’exemple du bogie, en prenant en cause les quelques zones non-accessibles par imagerie, on estime donc pouvoir remplacer pas moins de 50% des jauges par 4 caméras posées en une journée. Cela représente sur ce cas environ 5000€ d’économies pour les 100 jauges présentes sur l’essai, sans prendre également en compte le temps gagné sur la définition du plan d’instrumentation. Le bogie aurait également été disponible plus rapidement pour l’essai, puisqu’une telle instrumentation prend très souvent plusieurs semaines.  Enfin, il faut également compter le coût de gaspillage pour les voies de jauges défectueuses (décollement, problèmes électriques) pour environ 5% des jauges collées pour ce bogie. En tout, ce sont près de 10 000€ d’économies possibles que l’on peut comptabiliser sur cet essai.

Côté simulation : un modèle prédictif plus rapidement

La validation d’un modèle de simulation à partir de résultats d’essais prend souvent du temps, et majoritairement pour extraire les résultats de simulation aux endroits où la mesure a été réalisée. Outre les incertitudes liées à ces opérations (la jauge était-elle bien où je l’ai placée dans la simulation ?), elles sont consommatrices d’énormément de temps, puisque devant être répétées pour tous les capteurs présents sur l’essai.

Disposer d’une mesure de déplacements et déformations sur le maillage permet donc d’automatiser et de rationaliser ces opérations, puisque l’extraction est faite aux mêmes points, et permet de calculer l’erreur de modèle qu’il conviendra ensuite de réduire. Sur le cas du bogie, c’est 2 jours de temps ingénieur qui peuvent être immédiatement économisés pour le seul post-traitement des résultats de mesure.

Pour le recalage de la simulation, l’ingénieur doit ensuite trouver le bon jeu de paramètres pour que la simulation colle à la mesure : conditions aux limites, paramètres matériau, paramètres d’interface… L’essai/erreur est ici la règle, avec comme seul guide l’expérience de l’utilisateur.

Disposer de l’erreur de modèle, qui plus est sur un champ complet, permet de donner beaucoup d’intérêt à des calculs de sensibilité sur chacun des paramètres : on sera alors capable de distinguer quelle partie de l’erreur de modèle est due à une mauvaise estimation d’un paramètre matériau ou de l’orientation d’une condition aux limites. Si l’on va jusqu’à l’automatisation du processus d’identification, c’est 3 jours que l’on peut gagner, sans compter les gains en qualité liés à la réduction de l’erreur de modèle.

Enfin, disposer de mesures riches comme des mesures par imagerie permet d’améliorer plus directement la simulation : on peut créer à partir des mesures des conditions aux limites mesurées, qui viennent remplacer les conditions aux limites « idéales » (disons plutôt idéalisées) de la première simulation. Ces éléments sont souvent la source de nombreuses questions après l’essai, c’est donc une manière de lever ces points d’incertitude en appliquant directement la  réalité du terrain dans la simulation. Le gain est ici difficile à estimer, disons que c’est le prix de la tranquilité !

Corrélation d’Images : Les apports de la méthode globale

Pourquoi une méthode « globale » ?

La corrélation d’images numériques consiste à effectuer une mesure de champ de déplacements entre une configuration de référence et une configuration déformée. Deux grandes familles existent pour faire cette mesure :

 

  • les méthodes « locales » (ou subset-based) répètent une action de recherche pour une série d’imagettes (subsets) positionnées sur une grille dans l’image.

  • les méthodes globales reposent sur l’idée que l’introduction d’informations connues (en l’occurrence la continuité du champ de déplacement) dans la formulation du problème doit permettre de réduire les incertitudes de mesure par la diminution du nombre d’inconnues. Cette base peut être choisie comme étant un maillage éléments finis et ses fonctions de forme associées à chaque élément (la méthode est alors dite FE-based).

Dans le cas général, le champ de déplacement u(x) peut être décomposé comme une somme de fonctions de forme Nm :

avec vα m sont les degrés de liberté inconnues du problème, et eα est un vecteur caractéristique de l’élément considéré. C’est la raison pour laquelle on les appelle les méthodes « globales » : tout le champ de déplacement est calculé en même temps, puisque les degrés de liberté sont dépendants les uns des autres. Pour la majorité des cas, où des fonctions de forme éléments finis peuvent être utilisées, les degrés de liberté sont alors simplement les déplacements mesurés aux nœuds.

Trois avantages principaux découlent de l’utilisation de ces techniques :

Une précision de mesure augmentée :

L’algorithme de mesure dispose d’autant d’informations à traiter (les images) mais doit trouver moins d’inconnues, il est donc plus robuste et moins sensible au bruit dans l’image [1].

Les éléments finis assurent la continuité du champ de déplacement :

Cela permet d’éviter des problèmes de discontinuité dans la mesure (du type « élément mal déterminé » localement). On peut également utiliser des méthodes de régularisation « mécanique » [2] et éviter les filtres gaussiens moins adaptés et plus obscurs pour l’utilisateur.

Dans le cas où la continuité du déplacement n’est plus respectée (fissures par exemple), on peut facilement le détecter en observant les résidus de corrélation, qui sont le « reste » de la corrélation entre image de référence et image déformée :

Champ de déplacement mesuré et résidu de corrélation dans le cas de l’apparition d’une fissure

 

Les résultats sont directement exprimés dans le repère de la simulation :

La principale utilité des éléments finis est la comparaison des mesures à des résultats de simulation. Avec un nuage de points, cette comparaison nécessite des opérations de recalage successives spécifiques à chaque cas, et qui peuvent faire perdre de l’information de mesure (en particulier au moment du passage nuage de points/maillages). Utiliser une méthode globale, c’est parler dans la langue de l’ingénieur simulation, et lui donner directement le résultat de mesure sans avoir besoin de le transformer.

 

[1] Hild F., Roux S., Comparison of Local and Global Approaches to Digital Image Correlation, Experimental Mechanics 52, pp 1503-1519.

[2] Zvonimir Tomicevic, François Hild, Stéphane Roux, Mechanics-Aided Digital Image Correlation, Journal of Strain Analysis for Engineering Design, SAGE Publications, 2013, 48, pp.330-343

Use Case – CETIM poutre composite

 

Contexte

 

 

  • Nouveau process de fabrication des pièces composites
  • Questions sur la prédictivité de la simulation
  • Modélisation complexe (contacts + assemblages)

 

Solution

 

  • Essai mécanique de flexion trois points
  • Mesure des déplacements sur le maillage de la pièce
  • Utilisation des mesures comme entrée de la simulation
  • Comparaison globale essai/calcul

 

Résultats

 

  • Evaluation de la qualité du modèle
  • Correction directement depuis les données de mesure
  • Fourniture d’un modèle de simulation “augmenté” et recalé

 

Use Case – Alstom CETIM – Bogie

 

 

Contexte

 

  • Essai de fatigue sur un bogie
  • Questions sur la prédictivité de la simulation
  • Questions sur la tenue dans le temps du chargement

 

Solution

 

  • Mesure des déplacements sur le maillage de la pièce
  • Intégration d’autres capteurs externes (jauges, LVDT)
  • Recalage automatique de la simulation sur les données d’essais (paramètres : orientation, intensité des efforts)

 

Résultats

 

  • Evaluation de la qualité du modèle
  • Correction directement depuis les données de mesure
  • Interprétation physique des erreurs de modèle
  • Réduction des erreurs de jauges de 30%

 

Les principes de la Corrélation d’Images Numériques

La corrélation d’images numériques est une méthode de mesure qui utilise des images de caméras pour suivre les déplacements et déformations d’un solide pendant son mouvement. Elle est très souvent utilisée pour suivre et exploiter des essais physiques dans la recherche et dans l’industrie mécanique, et pour des applications très diverses, de l’éprouvette matériau en passant par des éprouvettes « sous-systèmes » (assemblages boulonnés, pièces technologiques) jusqu’à de très grandes structures (portion d’un avion ou d’un hélicoptère, ponts routiers ou ferroviaires et structures nucléaires). Elle présente comme avantage le fait d’être applicable quelque soit le matériau ou la forme de la structure observée, tant qu’elle est visible par des caméras.

 

Le principe de la corrélation d’images est basé sur le suivi d’informations d’une image dite « de référence » dans les images suivantes,  souvent appelées « images déformées ». L’ensemble des images forme un film, dont on cherche à extraire une mesure.

 

source : UNBOX THERAPY/YOUTUBE

 

Dans l’exemple ci-dessus, l’œil capte une déformation car notre cerveau se souvient de la configuration de référence (sans effort appliqué). Les algorithmes de corrélation d’images font le même travail avec les images de caméras que votre œil quand celui-ci voit un objet se déplacer et se déformer :

 

 

Comme votre œil, un code de corrélation d’images doit parvenir à déterminer le déplacement, la déformation d’un motif :

 

 

On peut donc voir la corrélation d’images comme du suivi de points sur toute la surface observée : suivre les déplacements d’une surface d’une pièce est équivalent à suivre les déplacements de tous les points de cette surface. Cela nécessite que la pièce soit « texturée » : s’il n’y a qu’un point noir, on ne peut pas mesurer le déplacement et la déformation de la zone blanche qui l’entoure. Attention toutefois : si la texture est très régulière, il y a fort à parier que le logiciel ne puisse pas identifier avec certitude le point recherché.

 

 

Pour qu’un point soit reconnu, il faut une texture aléatoire qui permet de reconnaître la zone autour du point d’intérêt. Pour des pièces dont la taille varie entre un centimètre et un mètre, on utilise souvent un mouchetis de peinture à la bombe, qui donne des taches de peinture de l’ordre du millimètre. Chaque point de mesure (en fait, chaque « imagette ») est alors reconnaissable parmi ses voisines. D’autres techniques permettent d’obtenir des textures pour la corrélation d’images, pour des moyens d’imagerie allant du microscope électronique à balayage aux plus grandes échelles. Certains matériaux, comme le béton, ont même une texture « naturelle » qui permet de se passer de cette étape.

 

 

L’incertitude de mesure permise par ces méthodes peut paraître surprenante. C’est grâce à l’interpolation des niveaux de gris : si une tache noire de la taille d’un pixel bouge au milieu d’une image blanche, les pixels avoisinants captent ce déplacement en adoptant un niveau de gris proportionnel à la surface de la tache présent face à ce pixel. On peut mesurer des déplacements plus petits qu’un dixième, voir qu’un centième de pixel dans de très bonnes conditions ! Il faut alors s’assurer d’un éclairage très constant et d’utiliser un matériel optique de bonne qualité.

 

La corrélation d’images numériques est donc bien adaptée pour obtenir le déplacement d’un nuage de points, en répétant l’opération sur toutes les positions où l’on souhaite obtenir une mesure. En mécanique, cette pratique pose parfois problème, puisque l’opération immédiatement consécutive consiste à comparer ce résultat à une simulation éléments finis (Abaqus, Ansys…). Pour rémédier à ce problème, une solution pour les mécaniciens peut être d’utiliser le maillage comme support de la mesure, plutôt que les imagettes :

 

 

Dans ce contexte, le choix des fonctions de formes importe beaucoup ; pas pour la personne qui réalise l’essai (pour qui ce choix ne change rien), mais pour celle qui doit exploiter ces données en corrélation avec un modèle de simulation. En effet, comparer un résultat de calcul éléments finis avec un nuage de points nécessite plusieurs opérations délicates et pouvant poser des problèmes d’incertitude et de biais (balançage du repère, interpolation 3D notamment). Utiliser un maillage permet donc de donner à l’ingénieur de simulation un résultat directement exploitable.

 

Ce type de pièce de forme complexe ne peut bien sûr pas être étudié avec une seule caméra, qui ne peut capter que des déplacements dans le plan parallèle à son capteur. Pour mesurer des déplacements en trois dimensions, on peut utiliser un système multi-caméras (2 ou plus) :

 

 

Dans ce cas, si le point M se déplace sur la ligne M-M1, la caméra 1 ne le verra pas mais la caméra 2 pourra enregistrer ce mouvement. On peut généraliser ce système pour multiplier les caméras autant que la pièce le nécessite, et ainsi disposer de l’information de mesure sur toutes les surfaces observables. Cette information, disponible tout au long de l’essai, peut être mutualisée avec les autres capteurs présents sur l’essai pour alimenter la validation des simulations, et même l’identification de certains de leurs paramètres.

 

 

 

Le jumeau numérique : un avatar pour les gouverner tous !

Faire une simulation numérique en ingénierie mécanique est un réflexe désormais bien ancré pour avoir une estimation du comportement mécanique d’une structure. La modélisation par éléments finis est présente à tous les étages d’un projet de conception, de l’échelle du matériau (en particulier pour les composites) à celle de la structure complète, en passant par toutes les sous-structures et assemblages structuraux.

Pour chacune de ces échelles, une simulation permet de prévoir la réponse de la structure virtuelle, mise en données selon le cahier des charges prévu. Les tests sur pièces prototypes restent néanmoins toujours ponctuellement nécessaires afin de valider que la simulation était bien prédictive, c’est-à-dire donnait un résultat cohérent.

 

 

Cette prédominance de la simulation a deux conséquences principales :

  • les coûts de développement prévus pour les projets diminuent progressivement, puisque l’on fait plus de simulations et moins de tests sur prototype.
  • La confiance en la simulation doit nécessairement augmenter, puisque l’on fait les tests sur prototype de plus en plus tard, ce qui fait augmenter les risques en fin de projet.

 

S’appuyant sur ces tendances, les directions techniques fixent donc des objectifs de temps de développement de plus en plus courts, sur des projets de développement de produits sur lesquels il faut parfois redévelopper une partie du système ou utiliser de nouveaux matériaux. Néanmoins, on néglige souvent un aspect de la simulation qui peut avoir un impact très fort sur la prédictivité d’un modèle : la différence entre vérification et validation.

 

La vérification d’un modèle de simulation consiste à s’assurer que l’équation de comportement analytique (la loi théorique qui lie par exemple la déformation et la contrainte dans le matériau) est bien reproduite par l’algorithme présent dans le logiciel de simulation. Elle peut être effectuée sur des exemples très simples, et c’est elle qui nous permet de juger de la « qualité » d’un logiciel de simulation. Aujourd’hui tous les logiciels commerciaux sont scrupuleusement vérifiés pour s’assurer que les équations disponibles pour l’utilisateur « fonctionnent » correctement.

 

La validation d’un modèle concerne tout ce qui touche à sa mise en données : quel effort on a appliqué, quelle forme on a donné à la pièce, quelle hypothèse on utilise pour l’interface entre deux pièces… Ces éléments sont des choix que l’ingénieur doit faire, et ils sont basés sur son expérience et sa connaissance du système. Plus le produit est innovant, plus ces hypothèses peuvent se révéler éloignées de la réalité le jour du test sur le prototype…

 

 

Il est donc possible d’avoir les ingénieurs les plus expérimentés et de découvrir le jour du test que tout ne se passe pas comme prévu, aux dépends du programme de développement…  Il n’est donc pas rare de voir opérer des « task forces » en fin de programme pour aider la simulation à rentrer dans les clous des mesures. Pire encore, il faut parfois refaire des campagnes de test pour changer les conditions d’essais et tenter de comprendre ce qui fait que la réalité terrain n’est pas celle qu’on attendait. Quand on connaît les coûts d’un test sur structure (entre 5 et 200k€ selon la complexité du système) on comprend que ce type d’imprévu est une double peine : non seulement la mise en production sera ajournée, retardant d’autant les revenus de l’entreprise, mais on aussi doit dépenser plus d’argent et d’énergie pour terminer.

 

Pour répondre à cette question cruciale de la validation, d’autres domaines comme l’embarqué ou la maintenance adoptent aujourd’hui l’idée que la comparaison modèle/réel peut s’opérer à travers un Jumeau Numérique (Digital Twin). Ce jumeau est un avatar numérique du système observé, qui contient toutes les informations nécessaires à la validation du fonctionnement  du système, et permet une comparaison au réel pour assurer le suivi, et le cas échéant la correction de consignes appliquées au système réel. Dans la maintenance, il s’agit par exemple de suivre des données critiques d’un équipement de production (cadence, température, humidité, etc.) afin de rendre l’ingénieur capable de détecter un écart face à ses prévisions. Ce principe a déjà été généralisé à des usines entières…

 

https://ciowatercooler.co.uk/what-are-digital-twins

 

Même si ces jumeaux numériques existent aujourd’hui online, connectés en permanence aux équipes pour leur fournir les informations en provenance du système, il est bien sûr possible de les faire fonctionner offline après l’utilisation du système, pour traiter un cas de fonctionnement pour lequel on dispose déjà des données. Si on transfère ce concept à la simulation 3D en ingénierie mécanique, c’est tout à fait ce dont l’ingénieur a besoin : un essai mécanique a été mené (même partiellement), on souhaite valider que la simulation avait bien prédit son comportement.

 

A quoi ça ressemble en pratique ? Un outil dans lequel on peut importer toutes les sources de mesure et les modèles de simulation qu’on a construits « sur le papier ». Dans ce contexte, les caméras (comme celles dont les images sont traitées par EikoTwin) ne sont qu’un outil de mesure parmi d’autres. Elles rendent par contre l’utilisation du jumeau numérique très pratique, notamment parce qu’elles permettent

  • de comparer essai et modèle sur toute une surface de la pièce (et plus seulement en un point), et de calculer une erreur de modèle globale. Imaginez que cette fonction est l’équivalent de l’outil de comparaison de deux documents Word : on détecte du premier coup d’œil les similitudes et les différences entre ces deux résultats.
  • de rétroagir en corrigeant le modèle si on dispose d’informations sur les conditions aux limites ou si on veut jouer sur des paramètres de la simulation dont on sait qu’ils ont un effet sur cette erreur de modèle (paramètres matériau, d’interfaces, etc.).