Sinequa évolue vers une plateforme d’analytique cognitive pour entreprises
Dans le cadre de son changement de stratégie, recentrée autour de l’IA et du traitement du langage naturel, Sinequa annonce le lancement de plusieurs assistants basés sur l’IA générative, Sinequa Assistants. Le but est d’accélérer et d’optimiser les produits des recherches, en utilisant la technique Retrieval-Augmented Generation (RAG).

Initialement, Sinequa se concentrait principalement sur les moteurs de recherche d’entreprise et les capacités d’indexation de données. Le changement de stratégie de Sinequa a réorienté l’entreprise vers une intégration plus profonde de l’intelligence artificielle et du traitement du langage naturel dans ses solutions.

Cette évolution répond à une demande croissante des entreprises pour des outils capables de comprendre et d’exploiter des volumes massifs de données textuelles avec une pertinence accrue. La plateforme de Sinequa utilise désormais des techniques de TLN pour comprendre le contexte et la sémantique des requêtes des utilisateurs, permettant ainsi une recherche plus intuitive et des analyses plus fines des données textuelles.  

Des assistants qui peuvent lancer des tâches

« La recherche neuronale unique de Sinequa complète parfaitement l’usage de l’IA générative et constitue la base des Assistants de Sinequa. Ces Assistants vont bien au-delà du RAG classique qui consiste à rechercher et résumer des informations. Ils peuvent également effectuer des tâches complexes en plusieurs étapes, en se basant toujours sur les données pour aider et augmenter le travail des collaborateurs », affirme l’éditeur.

En cela, Sinequa entend se démarquer des assistants ou copilotes d’IA génératives qui n’ont pas accès au contenu intégral de l’entreprise. Selon l’éditeur, « les Assistants Sinequa se distinguent par leur capacité à mobiliser l’intégralité des connaissances et des données de l’entreprise. Ils génèrent des informations et des recommandations d’une pertinence contextuelle inégalée, tout en préservant la confidentialité et en respectant scrupuleusement la gouvernance des données ».

Conçus pour être évolutifs, les Assistants Sinequa s’appuient sur trois modèles de langage de petite taille (SLM), entraînés pour garantir une efficacité maximale à moindre coût. Ils fournissent ainsi des réponses conversationnelles sur n’importe quel sujet interne. De plus, ils accompagnent leurs réponses de citations et d’une traçabilité qui remonte jusqu’à la source originelle.  

Ouverts aux autres LLM du marché

Ouverts, ces assistants sont conçus pour exploiter n’importe quel LLM génératif public ou privé, y compris Cohere, OpenAI, Google Gemini, Microsoft Azure OpenAI, Mistral et d’autres. Cela permet aux entreprises de sélectionner les LLM qui répondent le mieux à leurs besoins et à leur budget.

Sinequa Assistant propose une gamme d’assistants prêts à l’emploi ainsi que des outils pour créer des assistants personnalisés. Les clients peuvent utiliser un assistant immédiatement, ou en personnaliser et en gérer plusieurs à partir d’une plateforme unique. Configurables pour s’ajuster aux différents contextes professionnels, ces assistants se déploient et se mettent à jour rapidement, sans nécessiter de code ou d’infrastructure supplémentaire.

Parmi les assistants disponibles par domaine ou métier, Sinequa propose :
  • L’employé augmenté, conçu pour transformer l’engagement et la productivité des employés, en fournissant une expérience de recherche conversationnelle à travers toutes les connaissances et applications de l’entreprise.

  • L’ingénieur augmenté permet aux équipes design d’avoir une vue unifiée des projets, des produits et des pièces, ainsi que la possibilité de construire et de rechercher à travers un fil numérique.

  • L’avocat augmenté, propose aux avocats et aux juristes de puissantes capacités de recherche en libre-service dans tous les dossiers et toutes les informations grâce à une recherche basée sur l’IA qui permet de gagner du temps.

  • Le gestionnaire d’actifs augmenté, permet aux gestionnaires d’actifs et aux conseillers financiers d’exploiter les informations importantes contenues dans les contrats, l’historique des portefeuilles et des documents.
Tous les assistants sont alimentés par la plateforme de recherche Sinequa, qui combine la technologie de recherche avec trois SLM personnalisés. Un framework d’assistants permet de définir des workflows personnalisés basés sur la recherche et de les combiner avec n’importe quel modèle d’IA générative du commerce, privé ou open source.