Helion est désormais un projet hébergé par la fondation au sein de la PyTorch Foundation. Le projet, apporté par Meta, vise à simplifier le développement de noyaux d’IA et à améliorer la portabilité sur différentes plateformes matérielles.
Helion rejoint la PyTorch Foundation en tant que nouveau projet aux côtés, entre autres, de PyTorch, DeepSpeed, Ray et vLLM. La fondation l’a annoncé elle-même lors de la conférence PyTorch à Paris. La nouvelle concerne une couche de la pile d’IA qui est généralement moins visible, mais qui contribue à déterminer l’efficacité de l’exécution des modèles.
Plus d’efficacité
Helion est un langage spécifique au domaine intégré dans Python pour l’écriture de noyaux d’apprentissage automatique. Le projet compile vers plusieurs backends, dont Triton et TileIR. Il doit aider les développeurs à travailler à un niveau d’abstraction plus élevé, de sorte que moins de code manuel soit nécessaire.
La PyTorch Foundation y voit un moyen de rendre le développement de noyaux plus accessible au sein de l’écosystème d’IA ouvert. C’est pertinent, car les développeurs peuvent ainsi obtenir plus d’efficacité.
Helion doit également permettre l’autotuning automatique ahead-of-time. « Le logiciel teste alors différentes implémentations pour trouver la meilleure option pour un noyau spécifique », explique Oguz Ulgen, ingénieur logiciel chez Meta Superintelligence Labs. « L’autotuning ne prend désormais que cinq à dix minutes, mais doit toujours être effectué avant la phase de production. »
Provenant de Meta
Meta a fourni Helion comme contribution à la fondation. L’inclusion en tant que projet hébergé par la fondation signifie que l’évolution ultérieure se fera dans un cadre open source, en collaboration avec la communauté plus large autour de PyTorch et d’autres projets d’IA sous l’égide de la Linux Foundation.
« C’est un changement majeur pour Helion », déclare Ulgen. « Jusqu’à présent, tous les mainteneurs étaient des employés de Meta. Désormais, des mainteneurs d’autres entreprises s’y joignent. Quelqu’un de Thinking Machines rejoindra déjà l’équipe. Un comité de pilotage sera également mis en place pour définir les priorités. » De plus, Ulgen insiste sur le fait qu’Helion souhaite être neutre vis-à-vis des fournisseurs.
Ambition de croissance
L’ajout d’Helion à la fondation s’inscrit dans l’ambition de la PyTorch Foundation elle-même. « Il n’est pas seulement important d’ajouter de nouvelles capacités aux projets existants sous l’égide de la fondation », déclare Mark Collier, qui dirige l’organisation. « Mais nous devons également ajouter des projets entièrement nouveaux. »
Helion rejoint ainsi vLLM, Ray et DeepSpeed, qui sont déjà gérés aux côtés de PyTorch sous l’égide de la PyTorch Foundation. « Avec cette collaboration, nous étendons nos capacités », ajoute encore Collier. ExecuTorch, également lancé chez Meta, devient aussi une partie de PyTorch Core. Ce projet se concentre sur les modèles PyTorch pour les environnements edge et on-device.
