Le marché du numérique est un océan tempétueux, en constante évolution, ce qui ne facilite pas les choix technologiques et stratégiques en matière d’IA. Pour éviter d'être aveuglés par l'innovation et être mieux à même de prendre les bonnes décisions, ABI Research explore les deux tendances majeures pour l’IA en 2020.

Après une année 2019 tumultueuse, marquée par l’omniprésence de l’IA et des technologies cognitives, de nombreux défis se profilent pour l’années 2020. Certes, la dynamique du marché des hautes technologies continuera à alimenter les entreprises en nouveautés avec un impact toujours aussi disruptif. En effet, les technologies cognitives étendent les capacités et la perspicacité de la technologie, à tel point qu’il est difficile pour les décideurs de faire des choix stratégiques et technologiques judicieux.

Une chose est sûre : le marché des technologies du traitement de l’information est complexe, encombré, fracturé et en constante et rapide évolution. Cet océan du numérique « ne sera pas plus facile à naviguer en 2020 qu’en 2019 », explique ABI Research. Heureusement que quelques repères bien visibles peuvent d’ores et déjà servir de balises pour les navigateurs au long cours des flots cognitifs. Alors, que va-t-il se passer en 2020 ?

Lancement de nouveaux chipsets et de puces dédiées à l’IA

Certains chercheurs pensent que l’IA est sur le point de devenir une technologie d’utilité générale, au même titre que le moteur thermique et l’Internet, elle est polyvalente, multifonction et ses effets se font sentir dans toutes les industries. Cette généralisation nécessitera des plateformes matérielles spécifiques, accélérant les opérations cognitives grâce à des puces et des jeux de composants intégrés.

« Nous avons déjà vu le lancement de nouveaux chipsets d'IA personnalisés par les principaux vendeurs et les nouvelles startups. Du plus grand jeu de puces de Cerebras Systems au monde au jeu de puces d'inférence d'IA sur mesure d'Alibaba, l'industrie des chipset d'IA a été fortement touchée par le désir de réduire la consommation d'énergie, d'atteindre des performances plus élevées et, dans le cas de la Chine, de minimiser l'influence des fournisseurs occidentaux dans leur chaîne d'approvisionnement », déclare Lian Jye Su, analyste principal d'IA & Machine Learning chez ABI Research.

2020 sera une année passionnante pour les chipsets d'IA. « Plusieurs startups vont probablement lancer des chipsets programmables pour les centres de données, tandis que l’émergence de nouvelles applications d’IA dans les appareils embarqués donnera naissance à davantage de circuits intégrés spécifiques aux applications (ASIC) dédiées aux charges de travail d’inférence de l’IA embarquée ».

La convergence des architectures matérielles vers un traitement IA hétérogène

Les applications et réseaux d’intelligence artificielle existants sont actuellement pris en charge par différentes architectures matérielles, qu’il s’agisse de réseaux de cellules programmables (FPGA), d’unités de traitement graphique (GPU), de processeurs, de processeurs de signaux numériques (DSP) ou d’accélérateurs matériels, chacun étant utilisé en fonction du cas traité.

Une disparité de modes de traitement qui devrait voir converger ces technologies sur des puces de traitement hétérogène en 2020, c’est-à-dire utilisant plusieurs technologies matérielles de traitement. D’après le rapport « la prochaine génération et les environnements d’IA et d’apprentissage machine seront multimodaux par nature ».

« Les principaux acteurs, dont Intel, NVIDIA, Xilinx et Qualcomm, vont introduire de nouveaux types de chipsets, complétés par des accélérateurs matériels pour répondre aux nouveaux cas d’utilisation », déclare Lian Lye Su. « Les vendeurs de ces puces vont s’éloigner de l’offre de piles logicielles propriétaires et commencer à adopter des approches ouvertes d’environnements de développement logiciel et d’API pour leurs outils afin de simplifier la complexité technologique pour leurs développeurs et les aider à se concentrer sur la construction d’algorithmes efficaces pour les nouvelles applications AI et ML », ajoute-t-il.

Source : ABI Research