• Éric
    Éric
    2016-10-28

    Sujet intéressant. Mais il serait utile d'éclaircir le mode de mesure de la production de ces données. Si c'est juste la mesure de la mémoire occupée; alors dupliquer 10 fois Wikipédia apporte de l'eau à ce moulin, mais ne fait pas progresser grand chose d'autre que le pillage de ressources peu chère, comme l'eau le fut autrefois. Il serait plus intéressant d'intéresser à la production réelle de /données/ (je ne parle même pas de /connaissances/. Après tout, le satellite Gaïa, c'est pas loin d'un Mo/s de mesures nouvelles ; mais sont-ce pour autant des connaissances…).
      Bien sûr, c'est tout sauf facile à faire : la n+1ème photo HR du chat de la voisine du dessus postée sur son livre de gueules est une donnée nouvelle et volumineuse, mais probablement plus encore voluminable. Néanmoins, j'imagine qu'il y a des chercheurs qui bossent là-dessus, non ?

    0
  • Éric
    Éric
    2016-10-28

    Remarque tenue sous hypothèse de fuseau métropolitain, j'imagine…
      « Nan mé est-ce que j'ai une tranche d'horaère ? »

    0
  • MixMax
    MixMax
    2016-10-28

    Tu fais des distinctions intéressantes, et qui seraient incontournables s'il s'agissait là du coeur de mon sujet d'étude. Mais je ne suis à la recherche que de quelques chiffres un peu "choc" (mais fiables) qui illustreraient le carctère tout à fait indéniable, incontournable et irréversible de l'impact du numérique. Dans mon cas, je pense que quelque soit l'objet de la mesure, des chiffres comme ceux avancés par cet intervenant dans cette émission le démontreront.

    0
  • MixMax
    MixMax
    2016-10-28

    Remarque tenue sous hypothèse de fuseau métropolitain, j’imagine…
    « Nan mé est-ce que j’ai une tranche d’horaère ? »

    Je ne comprends pas...

    0
  • Robert Biloute - on diaspora-fr.org
    Robert Biloute - on diaspora-fr.org
    2016-10-28

    ha oué sacré question..
    cet article peut peut être aider et donner quelques références: https://www.uvm.edu/pdodds/files/papers/others/2011/hilbert2011a.pdf
    "The World’s Technological Capacity to Store, Communicate, and Compute Information"

    0
  • Éric
    Éric
    2016-10-28

    @david_lemonnier « “Remarque tenue sous hypothèse etc.” Je ne comprends pas… ». Ben, c'était en réponse à un troll qui s'est, j'imagine, auto-effacé…

    0
  • Fip_addict
    Fip_addict
    2016-10-28

    en allant faire un tour de ce côté ci (Lien France culture)Du Big Data à l'intelligence artificielle : la science des données. Il s'agit de l'émission "Les passeurs de science" diffusée le 17/07/2016. Des éléments chiffrés sont distillés tout au long de l'émission.

    0
  • MixMax
    MixMax
    2016-10-28

    @Emmanuel_S : merci, 17 juillet, ça ne peut pas correspondre, j'étais en congés, et j'ai entendu cette émission pendant un trajet professionnel. Je l'écouterai quand même quand j'aurai le temps, j'y trouverai bien des trucs à glaner. D'ailleurs France Culture diffuse pas mal d'émissions sur les questions liées au numérique, plus ou moins approfondies, et je chercherai plus longuement de ce côté là.

    @Robert Biloute : merci, mais malheureusement, mes 4 mots d'anglais baragouinés comme un éléphant russe ne me permettent pas de me plonger dans un article scientifique de cette densité. A l'extrème rigueur, je demanderai une traduction (à Google, pfff... ptdr !, non à ma belle soeur).

    0
  • MixMax
    MixMax
    2016-10-28

    Tiens, je tombe là-dessus :

    Les chiffres donnent le vertige : pour produire l’équivalent du volume de données accumulées depuis le début de l’humanité jusqu’en 2003 – date d’une première estimation par Google – il ne fallait que deux jours en 2011 et à peine dix minutes aujourd’hui !

    http://universcience.djehouti.com/bigdata/Concernes.html

    0
  • MixMax
    MixMax
    2016-10-28

    http://universcience.djehouti.com/bigdata/Home-menu.html

    C'est la page d'accueil. Trop bien ce dossier...

    0