La jeune pousse britannique, Nexa.ai, annonce une nouvelle version de son agent Hyperlink, optimisée pour les GPU Nvidia RTX. Ce logiciel de recherche intelligente localisée permet d’interroger ses propres fichiers à l’aide d’un modèle linguistique embarqué, sans transfert cloud. Une avancée structurante dans la généralisation du RAG personnel.

La recherche documentaire devient un goulot d’étranglement pour les professionnels confrontés à une accumulation massive de fichiers locaux : courriels archivés, présentations, rapports techniques, contenus multimédias. Hyperlink s’attaque à ce problème en proposant une solution d’IA locale, capable de fournir des réponses contextualisées à partir de cette mémoire dormante. L’agent repose sur une logique de génération augmentée par récupération (RAG), exécutée directement sur l’appareil de l’utilisateur. Aucune donnée n’est transférée, aucune indexation distante n’est requise : tout se passe en local, garantissant confidentialité, rapidité et autonomie.

Avec l’annonce de sa compatibilité optimisée pour les GPU RTX, Nexa.ai met en avant des gains mesurable : la vitesse d’indexation est triplée, et le temps de réponse réduit de moitié, selon les tests réalisés sur une configuration RTX 5090. Mais au-delà de cette accélération matérielle, c’est l’architecture même de l’agent Hyperlink qui attire l’attention. Basé sur le moteur NexaML, le logiciel est conçu pour fonctionner sur différentes unités de calcul – CPU, GPU ou NPU – avec une prise en charge étendue des formats modèles (GGUF, MLX, .nexa). Une approche qui répond à une demande forte de portabilité, d’optimisation locale et de souveraineté informatique.

Une architecture multiplateforme pour exécution locale

Au cœur de l’agent Hyperlink, le moteur NexaML incarne une stratégie ambitieuse : unifier l’exécution locale des modèles d’IA avancés, quels que soient les équipements disponibles. Concrètement, cette architecture permet de charger, quantifier et faire tourner des modèles linguistiques de pointe sur un processeur classique, une carte graphique haut de gamme ou une unité de traitement neuronal embarquée. Cette compatibilité est rendue possible par le support natif de plusieurs formats de modèles, notamment GGUF (pour les LLM quantifiés), MLX (adapté aux puces Apple), ou encore le format propriétaire .nexa, optimisé pour l’exécution rapide sur postes individuels.

Nexa.ai revendique une approche agnostique sur le plan matériel, avec des contributions ouvertes pour Apple Silicon, AMD ROCm, Intel OpenVINO et Qualcomm AI Stack. Si l’optimisation RTX est actuellement la plus avancée, elle ne constitue pas une exclusivité : les utilisateurs d’ordinateurs portables sous ARM (Snapdragon X) ou de Mac M3 peuvent également exploiter Hyperlink dans des configurations locales. Pour les responsables informatiques, cette flexibilité est un atout stratégique. Elle permet de mutualiser les investissements existants en matériels compatibles IA, tout en maintenant une indépendance vis-à-vis des architectures cloud. C’est une réponse pragmatique aux contraintes de latence, de confidentialité et de performance à la périphérie.

Valoriser les fichiers internes sans exposition extérieure

L’originalité de Hyperlink ne réside pas uniquement dans ses performances techniques, mais dans sa finalité : transformer les fichiers locaux d’un utilisateur en source directe de réponse, sans aucune fuite de données. L’agent lit, indexe et exploite les contenus présents dans les répertoires choisis – notes, contrats, supports de formation, documentations – pour fournir des synthèses ou des réponses sur mesure. Chaque réponse générée est justifiée par des extraits cités, avec la possibilité d’afficher le document source, renforçant la traçabilité et la vérifiabilité des résultats. Cette capacité de RAG personnel redonne de la valeur à la mémoire documentaire dispersée au sein des postes de travail.

Ce mode opératoire séduit particulièrement les métiers exigeants : juristes, responsables RH, ingénieurs, chefs de projet. Il ne nécessite ni connexion externe, ni paramétrage complexe. L’utilisateur installe l’agent, sélectionne les répertoires, et commence à interagir en langage naturel. Hyperlink prend en charge l’ensemble du pipeline – ingestion, indexation, mise en contexte, inférence – de manière transparente. Pour les DSI, ce modèle réduit les surfaces d’attaque, limite les dépendances réglementaires, et respecte les exigences croissantes de souveraineté. À une époque où chaque partage de fichier peut poser un problème de conformité, ce type d’agent local constitue une alternative tangible aux outils SaaS génératifs généralistes.

publicité