J’avais commencé cet article il y a quelques années. Les vidéos d’optimisation topologique n’étaient pas toute neuves, mais c’était les années où on ne parlait que d’intelligence artificielle (j’ai l’impression qu’on s’est calmé depuis). En discutant avec divers éditeurs de logiciels je me rendais compte que les éditeurs de solutions de simulation avaient une vraie opportunité sur le marché en mariant intelligence artificielle et simulation. Et pour autant, il y avait surtout une opportunité encore plus grande à se marier avec le PLM pour donner plus de données d’entrée pour executer les simulations.
Capacité d’itération
Historiquement, le process de conception assisté par des outils de simulation consistait à émettre des hypothèses, concevoir et simuler. Plus les hypothèses étaient bonnes initialement, moins on avait de simulations à réaliser. La capacité à itérer sur des variantes de design de façon automatisée permet d’élargir le champ des tests, de trouver de nouvelles solutions et de gagner du temps. Les optimisations automatisées permettent de jouer sur les dimensions paramétrées des modèles, de modifier les formes voir de retirer de la matière là où elle n’est pas utile.
La capacité d’itérer a explosé grâce aux avancées sur les réseaux de neurones aidés par la mise à disposition d’importantes capacités de calcul (on a même développé des PC portables dédiés pour cela : https://lambdalabs.com/deep-learning/laptops/tensorbook)
La vidéo suivante montre l’application de ce concept itératif laissant au réseau de neurones le choix d’hypothèses de contrôle d’une voiture en fonction de données reçues par ses senseurs (distance du bord de la route).
Appliqué au modèles mécaniques, ce concept permet de produire des composants fournissant les même capacités physiques tout en étant plus légers. La limite dans l’exemple ci-dessous c’est la capacité à produire la pièce définie, on ne peut pas tout faire en impression 3D pour des problématiques évidentes de volumes. Donc soit on s’en inspire pour faire un modèle plus simple à produire, soit il faut que l’algorithme d’optimisation prennent en compte des contraintes de fabrication…
Et le PLM dans tout ça?
L’idéal est donc de ne pas s’arréter à la conception du produit. L’idéal est d’assister l’utilisateur du PLM et plus généralement l’entreprise en apportant une force de simulation et de suggestion pour toutes ses activités. Pour faire de la documentation, créer des pack de pièces de rechanges, suggérer des suppressions d’article pour réduire leur nombre et faire baisser les coûts, détecter des pièces qui pourraient avec peu d’évolution, être fabriquées par une même machine, calculer des évolutions de supply chain,… Il n’y a pas de limites à cela. Ce qu’il faut c’est que l’intelligence artificielle soit capable de lire les challenges haut-niveau de l’entreprise (gain de productivité, modularisation des produits, gain en robustesse des produits,…) et navigue dans toutes les données du PLM pour tester, simuler et suggérer des améliorations.
La data: le nerf de la guerre
Comme me l’a fait remarquer Oleg récemment le problème de fond c’est qu’il faut déjà avoir les données sur une même source pour que cela fonctionne. C’est d’ailleurs le combat de tous les projets PLM. Rassembler les données dans un seul et même support. J’aime voir le verre à moitié plein et présenter les capacités de l’intelligence artificielle dans le PLM pour encourager les décideurs à mener cette activité de rassemblement de données.
[…] est la clé de l’évolution du produit. J’en avais un peu parlé dans mon article: AI+simulation = design automatisé. Le contexte est souvent à la base de design automatisé par contrainte, puisque les contraintes […]