Prise de données

La prise de données est le processus de collecte et de mesure d’informations sur des variables ciblées dans un système établi, ce qui permet ensuite de répondre à des questions pertinentes et d’évaluer les résultats. La collecte de données est une composante de la recherche dans tous les domaines d’étude, y compris les sciences physiques et sociales, les sciences humaines et les affaires. Si les méthodes varient d’une discipline à l’autre, l’accent mis sur la précision et l’honnêteté de la collecte reste le même. L’objectif de toute collecte de données est de recueillir des preuves qui permettent à l’analyse des données de conduire à la formulation de réponses crédibles aux questions qui ont été posées.

Quel que soit le domaine ou la préférence pour définir les données (quantitatives ou qualitatives), une collecte de données précise est essentielle pour maintenir l’intégrité de la recherche. La sélection d’instruments de collecte de données appropriés (existants, modifiés ou nouvellement développés) et des instructions précises pour leur utilisation correcte réduisent la probabilité d’erreurs.

 

Méthodologie

La collecte et la validation des données comportent quatre étapes lorsqu’il s’agit d’un recensement et sept étapes lorsqu’il s’agit d’un échantillonnage.

Un processus formel de prise des données est souvent nécessaire, car il garantit que les données recueillies sont à la fois définies et exactes. Ainsi, les décisions ultérieures fondées sur les arguments contenus dans les résultats sont prises sur la base de données valides. Le processus fournit à la fois une base de référence à partir de laquelle mesurer et, dans certains cas, une indication de ce qu’il convient d’améliorer.

 

Plate-forme de gestion des données

Les plateformes de gestion de données (DMP en anglais) sont des systèmes centralisés de stockage et d’analyse de données, principalement utilisés dans le domaine de l’intelligence d’affaires, du marketing et maintenant dans les centres intégrés des opérations (CIO et MOC en englais). Les DMP existent pour compiler et transformer de grandes quantités de données sur l’offre et la demande en informations discernables. Les DMP permettent cela, car elles sont le système agrégé des DSP (plateforme côté demande) et des SSP (plateforme côté offre). Les DMP font partie intégrante de l’optimisation et de l’évolution des campagnes publicitaires.

Une plateforme de gestion des données permet de centraliser le contrôle de toutes les données collecté par logiciel d’inspection ou un formulaire numérique. La centralisation aide les équipes à avoir une autonomie sur la structure de la base de donnée, être le propriétaire de son contenu ainsi que de personnaliser celle-ci au besoin.

Les spécialistes du marketing ou d’intelligence en affaire peuvent vouloir recevoir et utiliser des données de première, deuxième et troisième partie.

Qu’est-ce que les données de première, deuxième et troisième partie dans le domaine du marketing ?

Les données de première partie sont les informations les plus fiables et les plus uniques, provenant de vos propres sources. Les données de deuxième partie sont partagées avec divers partenaires et peuvent être moins précises. Les données de troisième partie (les données tiers), quant à elles, sont un ensemble de données provenant de sources plutôt inconnues.

 

  1. Les données de première partie sont des données que vous collectez directement auprès de vos utilisateurs, vos clients, de vos IOT, vos enregistreures de données (Data Loggers en anglais), vos formulaires électroniques ou de vos audiences par le biais d’interactions avec eux. Elles comprennent les données démographiques, l’historique des achats, l’activité d’une site web, les interactions, les centres d’intérêt, les données des applications mobiles et les comportements, comme le fait de cliquer sur un e-mail ou de lire un article sur un site web.
  2. Les données de seconde partie sont souvent définies comme les données de première partie de quelqu’un d’autre. Cela signifie que si votre partenaire commercial potentiel recueille des données et souhaite les partager avec vous, elles deviendront vos données de seconde partie et pourront être utilisées pour cibler ou segementer sune audience ou enrichir votre propre base de données.
  3. Les données de tiers peuvent être décrites comme des ensembles de données collectées et gérées par des organisations qui n’interagissent pas directement avec les clients ou les consommateurs de données d’entreprise. Les données de tiers peuvent inclure des ensembles de données «assemblées» à partir d’un large éventail de sources, voire de sources gouvernementales, non lucratives ou universitaires.

 

L’intégrité des données

La principale raison de maintenir l’intégrité des données est de permettre l’observation des erreurs dans le processus de collecte des données. Ces erreurs peuvent être commises intentionnellement (falsification délibérée – beaucoup plus présent lors d’un processus de documentation basé sur le papier versus le numérique) ou non intentionnellement (erreurs aléatoires ou systématiques).

Deux approches permettent de protéger l’intégrité des données et de garantir la validité scientifique des résultats de l’étude:

  1. l’assurance de la qualité – toutes les actions menées avant la collecte des données
  2. Contrôle de la qualité – toutes les actions menées pendant et après la collecte des données

Assurance qualité (AQ –  ou «QA» en anglais)

L’AQ est axée sur la prévention, qui est avant tout une activité rentable visant à protéger l’intégrité de la prise de données. La normalisation du protocole, avec des descriptions complètes et détaillées des procédures de collecte de l’information, est essentielle pour la prévention. Le risque de ne pas identifier les problèmes et les erreurs dans le processus de recherche est souvent dû à des lignes directrices mal rédigées. Voici quelques exemples de ces échecs :

  • Incertitude quant au calendrier, aux méthodes ou à l’identification de la personne responsable
  • Liste partielle des actions à prendre, des éléments à observer, documenter ou collecter
  • Description vague des instruments de collecte des données au lieu d’instructions rigoureuses, étape par étape
  • incompréhension du contenu exact et des stratégies de formation des membres du personnel chargés de la collecte des données
  • Instructions peu claires concernant l’utilisation, l’ajustement et l’étalonnage de l’équipement de prise des données
  • Absence de mécanisme prédéterminé pour documenter les modifications apportées aux procédures au cours de l’enquête

La protection de la vie privée des utilisateurs

L’intégrité des données individuelles collectées de manière électronique (Infonuagique / CLOUD) suscite de vives inquiétudes. Ces données sont souvent transférées d’un pays à l’autre, avec des normes de protection des données individuelles différentes. Le traitement de l’information a progressé à un point tel que les données des utilisateurs peuvent désormais être utilisées pour prédire ce que dit un individu avant même qu’il ne parle.

 

Contrôle de la qualité (CQ – ou «QC» en anglais)

Étant donné que les actions de contrôle de la qualité ont lieu pendant ou après la prise des données, tous les détails peuvent être soigneusement documentés. Une structure de communication clairement définie est une condition préalable à la mise en place de systèmes de contrôle. Une incertitude quant au partage de l’information n’est pas recommandée, car une structure de communication mal organisée entraîne un relâchement de la surveillance et peut également limiter les possibilités de détection des erreurs.

Le contrôle de la qualité est également responsable de l’identification des actions nécessaires pour corriger les pratiques de collecte de données erronées et minimiser leur apparition à l’avenir. Une équipe est plus susceptible de ne pas se rendre compte de la nécessité d’effectuer ces actions si ses procédures sont rédigées de manière vague et ne sont pas basées sur un retour d’information ou une formation.

Problèmes de collecte de données nécessitant une action rapide :

  • Erreurs systématiques
  • Violation du protocole, de conformité, de standards, ou normes de l’industrie
  • Fraude ou inconduite scientifique
  • Erreurs ou incompréhension dans des données individuelles
  • Problèmes de performance du personnel, d’une machine, d’un système ou d’un site
  • Effet d’ombre *terme médical: phénomène observé dans les études génétiques qui utilisent des méthodes de collecte de données génétiques non invasives

 

La majorité des problèmes de la gestion de l’information et de la documentation d’une entreprise sont souvent reglé avec la diminution de la manipulation physique de celle-ci, et par le remplacement de l’entrée, la distribution et le partage manuelle de celle-ci, à l’aide des logiciels d’inspections, des créteurs de formulaires numériques, et d’une base de donnée centralisé dans un infonuagique privé (On-Premise) qui son en partie des services et solutions offerts par nSpek.

  • 505, rue Bélanger, bureau 209 Montréal, Québec
    H2S 1G5, Canada
  • T : +1 (514) 271-2779
  • Sans frais : +1 (877) 271-2779
Membre de :
Politique de confidentialités

Site web créé par Rouillier.ca