mikefromlig edited this page Oct 18, 2017 · 17 revisions

Sakura a pour objectif d'être:

  • une vitrine de démonstration pour le laboratoire sur les travaux autour des données
  • un outil collaboratif de capitalisation et d'analyse de données pour les équipes du LIG

Spécifications

SAKURA doit permettre de

  • Accompagner le chercheur dans la production des données expérimentales
  • Assister les doctorants dans la création des protocoles expérimentaux dans la recherche en informatique centrée humain
  • Capitaliser les scénarios d'analyse (projet Hubble ANR)
  • Capitaliser des données expérimentales (expés du laboratoire, plateforme A4H,etc.)
  • Se connecter à des bases existantes au laboratoire (Geotweets, OSM)
  • Référencer les jeux de données Sakura via la plateforme Perscido
  • Capitaliser des opérateurs de traitements de données produits par les équipes pour les diffuser (IIHM, AMA, CONVECS,etc.)
  • Disposer d'une plateforme de construction de processus d'analyse (workflow d'opérateurs)

Organisation du projet

Le découpage du projet en fonctionnalités permet ainsi d'avancer de manière indépendante sur certaines fonctionnalités pour obtenir un tout cohérent. Les fonctionnalités seront développées par les ingénieurs associés au projet, des ingénieurs contractuels ou des stagiaires.

Interface homme machine de Sakura

  • L'utilisation de Sakura se fait par un browser
  • La capitalisation des données, des opérateurs et des scénarios d'analyse se fait par une interface web classique
  • L'analyse des données se fait par un workflow d'analyse de données

Utilisateurs de SAKURA

  • Des chercheurs/doctorants qui ont besoin d'être accompagnés pour suivre et tracer un processus de conduite de la recherche (https://github.com/sakura-team/sakura/wiki/THEDRE-Cahier-des-charges).
  • Des chercheurs qui ont besoin de données pour tester des opérateurs : - trouver des données qui correspondent à des 'critères' - exporter des données pour pouvoir tester des opérateurs chez lui - déposer des opérateurs pour pouvoir les diffuser - faire de l'analyse des données sur le workflow - décrire ces analyses - avoir accès à des bases connues (geotweets, osm, UT ... )
  • Des chercheurs qui ont besoin d'analyser des données: - trouver des opérateurs qui correspondent à des 'critères' pour analyser leurs données - déposer des données pour pouvoir utiliser le workflow et diffuser des données - faire de l'analyse des données sur le workflow - décrire ces analyses - obtenir des résultats d'analyses
  • Des chercheurs qui ont besoin de produire des données : - avoir des aides à construction de protocoles expérimentaux - avoir les moyens de décrire les données déposées - trouver des données qui correspondent à des 'critères' - importer les données sur la plateforme Sakura - avoir des tableaux de bord de description des données déposées
  • Des chercheurs qui ont besoin d'avoir une plateforme de stockage des données temps réel (p.ex, A4H) :- avoir les moyens de décrire les données déposées - avoir un outil de 'capture des données' - garantir la sauvegarde des données - avoir des tableaux de bord de description des données déposées
  • Des chercheurs ayant besoin de documenter des scénarios d'analyse (projet hubble : https://github.com/mandran/Hubble_CC/wiki)
  • La direction du laboratoire : - avoir un outil de communication des données et des opérateurs créés au laboratoire
  • Le labex Persyval : - avoir la description des données disponibles au LIG sous la forme de triplet rdf => persydo
You can’t perform that action at this time.
You signed in with another tab or window. Reload to refresh your session. You signed out in another tab or window. Reload to refresh your session.
Press h to open a hovercard with more details.