Du er ikke logget ind
Beskrivelse
Ces dernières années, l''importance du facteur de production qu''est l''information a considérablement augmenté. Les entreprises réalisent de plus en plus que l''analyse de leurs informations commerciales (Business Intelligence, Big Data, Data Science) peut générer des avantages concurrentiels décisifs. De plus, les exigences légales en matière de conformité telles que BCBS 239, Bâle II et III, SOX et Solvabilité II exigent un minimum de qualité des données et des processus de reporting et de planification. La mise en place d''une gestion des données à l''échelle de l''entreprise reste donc l''un des grands défis auxquels les professionnels de l''informatique et de la gestion devront faire face dans les années à venir.
La qualité des données est un facteur clé de succès pour la mise en place d''une infrastructure d''information optimale. Une étude de "The Data Warehousing Institute" (TDWI) de 2002 a estimé que les coûts dus à une mauvaise qualité des données aux États-Unis s''élevaient à environ 622 milliards de dollars. En 2006, la société d''études de marché Gartner a déclaré : "Une mauvaise qualité des données coûte à une organisation typique 20% de son chiffre d''affaires...".
La crise économique mondiale de 2007 peut également être considérée, avec le recul, comme une crise de la qualité des données. Malgré des exigences de conformité étendues, de nombreuses entreprises du secteur des services financiers n''ont pas été en mesure en 2017 d''agréger et de préparer leurs données de risque de manière adéquate pour gérer leurs risques efficacement.
À l''ère du Big Data, où les données sont considérées comme la nouvelle huile et où le volume mondial de données disponibles se multiplie d''année en année, les exigences en matière de transparence et de qualité des flux de données continueront d''augmenter car elles constituent la base de certains nouveaux cas d''utilisation (pas seulement dé