Nvidia prend en charge différentes langues dans son NeMo Retriever. Celui-ci peut désormais faire apparaître des informations pertinentes provenant d’ensembles de données dans des messages d’aide à l’intelligence artificielle, même si ces informations sont disponibles dans une multitude de langues.
Nvidia donne un bain de langage à son NeMo Ret riever. NeMo Retriever fait partie de la pile d’IA de Nvidia et aide les organisations lorsqu’elles souhaitent utiliser Retrievel Augmented Generation (RAG). Avec RAG, une invite à un LLM est automatiquement accompagnée d’informations contextuelles pertinentes. Par exemple, si vous demandez quel est le statut d’une commande, un LLM ne va pas simplement inventer la réponse. L’invite est équipée en coulisses d’informations provenant de la base de données des commandes, de sorte que le modèle d’IA puisse y chercher une réponse.
Multilingue
RAG est un moyen efficace de déployer des LLM sur des données commerciales réelles, sans qu’il soit nécessaire d’entraîner un modèle complexe. Le NeMo Retriever garantit désormais que les informations pertinentes sont ajoutées aux invites, quelle que soit la langue dans laquelle ces informations sont disponibles. Le récupérateur traduit les informations en vecteurs afin que l’IA puisse les traiter efficacement.
Nvidia fait valoir que le multilinguisme de l’outil est important pour les grandes entreprises. Après tout, les informations pertinentes ne sont pas exclusivement cachées en anglais. Le NeMo Retriever multilingue est disponible en tant que microservice via le catalogue API de Nvidia.