Open Data : la DGFIP invite à remonter les données essentielles de la commande...

A la recherche de plus de transparence, la DGFIP propose à tous les acheteurs soumis à la comptabilité publique de faire remonter leurs données...

Big Data : avez-vous besoin d’analytiques en temps réel ?

La forte médiatisation des analytiques en temps réel ne doit pas vous empêcher de vous poser la question : en avez-vous vraiment besoin ? Dans beaucoup d’entreprises,...

Big Data : 4 conseils pour faire accepter les analytiques

0
95 % des chefs d'entreprise du Fortune 1000 ont déclaré que leur entreprise avait entrepris un projet de Big Data au cours des cinq dernières...

La ville intelligente au service du Digital Workspace

0
DSI et CTO devraient s’intéresser aux Smart Cities et Smart Buildings, et aux technologies IoT qu’elles sous-tendent, pour apporter l’innovation jusqu’au Digital Workspace et...

Big Data : Introduire les analytiques dans l’audit interne

La fonction audit interne est encore très en retrait face à l’usage du Big Data et des analytiques. Pourquoi les auditeurs internes ne profiteraient pas...

Différencier Data Science, Big Data et Data Analytics

Notre avenir est dans la donnée… Il est important de connaitre les bases, la nature, les utilisations et les compétences - et les salaires...

Tribune : Militons pour la donnée pour tous

Big Data, analytiques, data scientists, IA, machine learning… La donnée est au coeur des stratégies IT des entreprises. Certes, mais si on commençais par...

8 technologies de la donnée qui changent la donne

Une nouvelle génération des technologies remodèle la gestion de la donnée. Voici 8 domaines technologiques qui apportent le plus de changements et auront un impact...

Détection des fraudes : la convergence du HPC, du Big Data et l’IA

L’obtention d’un niveau de sécurité maximale et l'amélioration de l’expérience utilisateur nécessiteront de meilleurs systèmes de détection des fraudes par la convergence du HPC,...

Le coût des mauvaises données : la ‘règle des dix’

Sur le seul territoire américain, IBM a estimé qu’en 2016 le coût global annuel des données de mauvaise qualité a été de 3.100 milliards...