10 tendances BI & Data pour anticiper les changements à venir en 2023 (2024)

Accueil > Blog > Les 10 tendances BI & data pour 2023

Actualités & Tendances

1. Les données en temps réel

La pandémie et le conflit en Ukraine ont entraîné d’importantes pénuries de composants. Ce contexte a poussé les organisations à mettre à jour leurs pipelines de livraison de données afin de passer des données par batch aux données en temps quasi réel. Avec l’apparition d’un plus grand nombre d’appareils en périphérie – produisant continuellement d’importants flux de données – un plus grand nombre d’opportunités pour exploiter les données en temps réel verront le jour.

Selon, l’étude IDC FutureScape: Worldwide Data and Content Technologies 2022 Predictions, d’ici 2027, 60 % des dépenses en capture de données et technologies de migration se feront sur des pipelines de streaming de données qui ouvriront la voie à une nouvelle génération de simulations, d’optimisations et de fonctionnalités de recommandations en temps réel. »

2. La vélocité décisionnelle

Selon Gartner, 95 % des décisions basées sur les données peuvent être automatisées au moins en partie. De nouveaux rôles verront le jour, axés sur l’innovation décisionnelle – tels que Chief Decision Officer, Decision Designer et Decision Engineer. Ces rôles ne doivent pas uniquement s’atteler à l’automatisation des décisions de routine, mais également s’attaquer aux problématiques majeures les plus épineuses.

D’après IDC, D’ici 2026, 85 % des entreprises allieront l’expertise des individus à l’IA, au ML, au NLP et à la reconnaissance de tendances afin d’élargir les prévisions à travers l’organisation, augmentant ainsi la productivité et l’efficacité des individus de 25 %. »

3. Optimiser l’utilisation du low-code et du high-code

Ces dernières années, nous avons observé l’émergence des outils low-code pour développer les applications, permettant ainsi aux utilisateurs non techniques de créer leurs propres applications.

Parallèlement, les programmeurs et développeurs d’applications de certaines organisations veulent simplement des invites dans lesquelles coder. C’est tout particulièrement le cas dans les domaines de l’ingénierie des données et de la data science, car ils ont été réinventés pour le cloud. Pour pourvoir à ces besoins, nous avons observé l’émergence des outils high-code, qui offrent un modèle aux codeurs souhaitant une flexibilité maximale.

Ces deux camps existeront toujours, même si de nombreux cas d’usage passeront petit à petit du high-code au low-code avec l’identification des workflows répétables et la maturation des marchés. Pour autant, le choix ne devrait pas porter entre le low-code et le high-code. L’accent devrait être mis sur l’optimisation du code, axée sur la meilleure productivité

D’après IDC, « D’ici 2023, 60 % des nouvelles applications seront développées via des plateformes no-code/ low-code, soit 30 % de plus qu’actuellement. » et les meilleurs résultats métier en fonction des ensembles de compétences à votre disposition

4. Le développement des agents conversationnels

Dans le secteur de la data et analytique, les fonctionnalités de langage naturel Les modèles de langage naturel ayant été formés à partir de quantités massives de données via un machine learning par réseau de neurones profond, ils ont atteint un changement de paradigme. Le modèle dont nous entendons le plus parler est probablement GPT‑3. Prédiction des analystes « Il y a désormais 5 ou 6 développements internationaux encore plus puissants que GPT-3¹¹, des modèles formés sur des ensembles de données encore plus vastes. Il est difficile d’imaginer où cela peut nous mener. Il est probable que nous soyons sur le point de franchir l’actuelle frontière et que des machines pourront réussir le test de Turing. auront un rôle très important à jouer concernant la manière dont nous demandons les informations et dont nous les interprétons et rapportons. Nous trouverons non seulement les données que nous recherchions, mais aussi celles que nous n’avions pas pensé à demander.

D’ici cinq à dix ans, voire plus tôt, Forrester Research prévoit sur la base des innovations révolutionnaires observées avec l’IA, des agents conversationnels réussissant le test de Turing seront créés par plusieurs fournisseurs de technologies.

5. L’avènement du Data storytelling pour favoriser la prise de décisions

Pour relier le storytelling aux actions vous devez ajouter trois étapes : 1. Prédire les prochains événements et suggérer les meilleures actions à entreprendre avec AutoML 2. Utiliser les alertes, le reporting et l’automatisation pour intégrer les récits dans les workflows au moment opportun 3. Intégrer des tableaux de bord, mais aussi des microrécits, dans les systèmes utilisés par les individus. Ce processus fera passer le storytelling de données des informations exploitables aux informations exploitées.

D’ici 2025, les récits de données seront la méthode la plus courante pour consommer l’analytique et 75 % des récits seront automatiquement générés via des techniques d’analytique augmentée selon Gartner.

6. La couche sémantique

Les applications de BI traditionnelles couplent souvent étroitement la modélisation et la visualisation des données, ce qui rend difficile la maintenance et la mise à jour de l’application au fil du temps.

Imaginez que vous deviez constamment réécrire des visualisations parce que le modèle de données sous-jacent a changé. Il s’agit d’un processus frustrant et chronophage qui entrave l’agilité des organisations dans un environnement commercial en constante évolution. L’année dernière, nous avons vu l’approche de la couche sémantique rattraper finalement d’autres tendances.

Par exemple, dbt a introduit une fonctionnalité appelée couche sémantique. Au début, elle était accessible en tant qu’aperçu public et maintenant elle a été ajoutée à la liste officielle des fonctionnalités. Google a fait pression pour intégrer les modèles sémantiques de Looker dans ses autres produits. Microsoft a introduit Datamarts en tant que fonction de prévisualisation dans Power BI. Ce n’est qu’un début, mais c’est un pas dans la bonne direction. Je suis très curieux de savoir comment la couche sémantique va évoluer et quel taux d’adoption nous verrons cette année.

7. La migration dans le cloud

Sur le plan financier, il n’est pas viable pour les organisations de travailler avec une pléthore de fournisseurs de niche. Bien heureusement, nombre de ces fonctionnalités seront récréées dans les plus vastes plateformes de data et analytique intégrées. Les marchés du cloud murissant, les managers pourraient délaisser les architectures s’appuyant trop sur un trop grand nombre de startups immatures en difficulté. Ces startups pourraient plutôt être mises à profit en tant que source d’« acqui-hiring ».

Pour remédier à la pénurie de compétences en développement informatique, d’ici 2024, 55 % des organisations feront des marketplaces dans le cloud et des acquisitions de startups technologiques leur principale approche dans le cadre du sourcing logiciel. » d’après IDC.

8. Le « tissu X »

Dans un monde composé de millions de générateurs, nous avons besoin d’autres tissus, les « tissus X. » Ils comprennent les tissus d’applications, les tissus de BI et les tissus d’algorithmes. Actuellement, ces méthodologies sont encore moins matures que la data fabric.

Les tissus X sont nécessaires dans le cadre d’une gouvernance connectée. Vous devez aussi certifier les artéfacts en fonction de leur degré de fiabilité – par exemple via des filigranes basés sur des paliers. De nos jours, toutes les organisations cherchent de meilleures méthodes d’accès à leurs artéfacts de data et analytique. Dans un monde distribué, l’orchestration est encore plus importante.

D’ici 2023, 60 % des entreprises classées au Global 2000 disposeront d’une architecture de plan de contrôle des données pour favoriser les DataOps, booster l’ingénierie des données basée sur le ML, réduire les risques liés aux données et stimuler l’innovation par les membres de la génération data (Gen D) selon IDC.

9. L’IA

L’analytique, l’automatisation et l’IA convergent et se superposent de plus en plus. Ce faisant, elles entrent dans un processus d’hybridation, générant de nouvelles informations jusque-là impossibles à obtenir.

Plus d’IA dans le pipeline de données ne signifie pas pour autant que les individus n’auront aucun rôle à jouer. Après tout, les êtres humains excellent lorsqu’il s’agit de synthétiser les problèmes complexes à composantes multiples. Mais l’IA automatisera certaines des tâches de préparation de données les plus manuelles, afin que les ingénieurs data et data scientists puissent se concentrer sur des tâches ayant un impact plus important.

En 2024, les tâches d’intégration manuelle des données seront réduites de jusqu’à 50 % via l’adoption de modèles de conception de data fabric qui prennent en charge l’intégration de données augmentées d’après Gartner.

10. L’essor des données dérivées et synthétiques

Grâce à plusieurs facteurs – notamment la réutilisation des données, les tests, les lois de confidentialité, les données manquantes et la nécessité de disposer de données pour former les modèles d’IA – nous verrons de plus en plus de données dérivées et synthétiques.

D’ici 2030, les données synthétiques auront entièrement éclipsé les données réelles utilisées pour les modèles d’IA. selon Gartner.

Cela pourrait vous intéresser

10 tendances BI & Data pour anticiper les changements à venir en 2023 (2024)
Top Articles
Latest Posts
Recommended Articles
Article information

Author: Duncan Muller

Last Updated:

Views: 6144

Rating: 4.9 / 5 (79 voted)

Reviews: 94% of readers found this page helpful

Author information

Name: Duncan Muller

Birthday: 1997-01-13

Address: Apt. 505 914 Phillip Crossroad, O'Konborough, NV 62411

Phone: +8555305800947

Job: Construction Agent

Hobby: Shopping, Table tennis, Snowboarding, Rafting, Motor sports, Homebrewing, Taxidermy

Introduction: My name is Duncan Muller, I am a enchanting, good, gentle, modern, tasty, nice, elegant person who loves writing and wants to share my knowledge and understanding with you.