Est-ce vraiment une bonne idée de transférer les centres de données au fond de la mer ?

Est-ce vraiment une bonne idée de transférer les centres de données au fond de la mer ?

Vers 5 heures, par un matin brumeux de début juin, un groupe d’ingénieurs, d’informaticiens et de chercheurs est monté à bord d’un bateau sur les îles écossaises éloignées des Orcades. Vers minuit le même jour, ils ont accosté au même port qu’ils avaient quitté ce matin-là. En 19 heures, un vaste projet d’infrastructure a été réalisé : un centre de données étanche, composé de 864 serveurs répartis sur 12 supports, a été immergé au fond de l’océan.

Une barge géante, équipée de grues, a traîné le centre de données jusqu’à son lieu de repos. Une fois fixé sur une dalle rocheuse à 35m sous la surface, les ingénieurs ont utilisé un drone sous-marin pour le relier à un câble précédemment posé. “Il y a toujours un risque que quelque chose ne fonctionne pas parce que nous ne voyons pas le câble” dit Ben Cutler, chef du centre de données sous-marines de Microsoft, qui a été baptisé Project Natick.

Pourquoi immerger les centres de données ?

Le but de ce projet ambitieux ? Réduire potentiellement les quantités colossales d’énergie nécessaires en vue de la consommation de plus en plus gourmande de données. Microsoft travaille sur le projet Natick depuis 2014 et a déjà testé un centre de données submergé à petite échelle dans l’océan Pacifique pendant 105 jours.

La nouvelle structure de 12m de long utilise la technologie de compression des sous-marins et a été conçue pour rester au fond de la mer pendant cinq ans. Elle sera opérationnelle pendant au moins un an pour que Microsoft puisse voir comment elle fonctionne et, pendant ce temps, les ingénieurs ne peuvent pas accéder physiquement à la capsule. Si les composants technologiques à l’intérieur se cassent, il n’y aura aucun espoir de réparation.

Le principe de l’immersion du centre de données est simple : l’eau de mer froide pourrait aider à réduire le coût de refroidissement des serveurs à l’intérieur du tube métallique. Le câble relié au centre de données fournit de l’électricité produite à partir de sources renouvelables sur terre et contient également les câbles Internet, qui seront acheminés vers la terre. Selon Microsoft, le centre de données est aussi puissant que “plusieurs milliers de PC haut de gamme”.

Un impact sur l’environnement

Et comme le monde est de plus en plus demandeur de données, les entreprises ont du mal à maîtriser son impact sur l’environnement. “Il ne s’en va pas, il s’agrandit ” dit Colin Pattinson, doyen de l’école d’informatique, de technologies créatives et d’ingénierie de l’Université Leeds Beckett. “Tout ce que nous produisons, tout ce que nous créons, devient de plus en plus gourmand en données” ajoute-t-il.

Selon une étude de la Commission européenne, l’industrie des TIC, qui comprend les centres de données, produit jusqu’à deux pour cent des émissions mondiales de CO2. Les centres de données ont également l’empreinte carbone qui croît le plus rapidement de tous les secteurs du secteur des TIC, principalement en raison de la croissance de l’informatique dans le Cloud et de l’utilisation générale d’Internet. Le Royaume-Uni, l’Allemagne, la France et les Pays-Bas abritent les plus grands centres de données d’Europe et l’on estime que d’ici 2020, les centres de données de l’UE consommeront 104 térawattheures d’énergie par an. Cela devrait représenter environ quatre pour cent de la consommation totale d’énergie.

Donc, si les centres de données peuvent être immergés au fond de l’océan pour réduire la quantité d’électricité dont ils ont besoin, ne peut-on pas tout simplement tous les y déposer ? La réponse courte : non. Il y a des facteurs plus complexes en jeu. Actuellement, Microsoft n’est pas certain que la dernière phase de son expérience sera couronnée de succès. Les choses pourraient mal tourner, les serveurs pourraient tomber en panne et l’ensemble du projet pourrait couler sans laisser de trace.

Il y a aussi des considérations concernant l’impact sur l’environnement. Cutler indique que la première phase d’essai de 105 jours a émis une petite quantité de chaleur dans l’océan et il s’attend à ce que la même chose se produise cette fois-ci. La quantité de chaleur dégagée est surveillée à l’aide de capteurs, tout comme la quantité de bruit créée par le centre de données. ” En examinant le centre de données de la phase un, nous avons constaté qu’en quelques jours, il était envahi par les phoques” dit-il. “Nous avions du poisson autour de nous, des crabes rampant partout.” D’après les caméras placées autour du centre de données des Orcades, il y a déjà “des créatures très exotiques qui se baladent”.

“Dans un sens, cela vaut la peine d’essayer” Pattinson, qui a étudié l’impact environnemental des centres de données. “Les plus récents efforts pour réduire la consommation d’énergie ont été de profiter des conditions climatiques.” Au cours de la dernière décennie, des centres de données ont été créés dans des pays aux climats plus froids, comme l’Islande. “Les centres de données situés en Scandinavie et en Europe du Nord sont plus performants sur le plan énergétique, principalement en raison des conditions ambiantes plus fraîches qui facilitent une utilisation plus économique” indique la recherche de la Commission européenne.

Une initiative efficace ?

Pattinson affirme que tout ce qui contribue à réduire la consommation d’énergie des centres de données est positif, mais que les gains d’efficacité sont de plus en plus faibles. Il y a quelques années, des techniques telles que la virtualisation des serveurs, les techniques de refroidissement à l’air libre et l’exploitation des climats plus froids ont fait une grande différence, mais ces gains diminuent de jour en jour.

Ainsi, bien qu’il n’existe peut-être pas de solution radicale pour réduire la consommation d’énergie des centres de données, nous pourrons peut-être utiliser les technologies émergentes pour améliorer encore davantage l’efficacité énergétique. L’utilisation de l’intelligence artificielle et de l’apprentissage automatique pour mieux comprendre les données est l’un des domaines où les gains d’efficacité potentiels sont les plus importants. Les algorithmes développés par DeepMind de Google ont montré qu’il est possible de réduire jusqu’à 40 % l’énergie utilisée pour refroidir ses centres de données.

“En fait, ce que nous essayons de faire maintenant, c’est de réaliser encore plus d’économies à partir de la même technologie de base”, ajoute Pattinson. “Nous pouvons réduire le taux d’augmentation, mais il y aura toujours une augmentation de la demande d’énergie que les centres de données créent en raison des volumes de données que nous produisons.”

Cutler de Microsoft ajoute que l’entreprise explore également l’utilisation de centres de données sous-marins comme récifs artificiels, des structures artificielles fabriquées par l’homme qui peuvent être utilisées pour promouvoir la faune sauvage. Dans le monde entier, d’anciens trains, citernes et navires ont été transformés en récifs artificiels pour améliorer l’environnement marin.

Mais les centres de données sont de grosses entreprises, d’autant plus que le cloud et l’intelligence artificielle des plus grandes entreprises de technologie prennent de l’expansion. (Apple dit que tous ses centres de données sont entièrement alimentés par des énergies renouvelables, Facebook s’efforce d’atteindre 100 % d’énergie renouvelable, Google achètera 100 % d’énergie renouvelable pour égaler son utilisation de données en 2018 et Microsoft dit que tous ses centres de données sont neutres en carbone). Plus de 20 milliards de dollars ont été dépensés pour les bâtiments des centres de données en 2017, selon une étude de la société immobilière CBRE. Et Microsoft a un argument économique pour tenter le projet Natick.

“On pourrait imaginer un centre de données dans l’océan qui pourrait en avoir plus d’un”, dit Cutler. “Il pourrait y en avoir beaucoup et ils pourraient être reliés.” Il prévoit qu’il sera possible pour Microsoft de fabriquer et de créer les centres de données sous-marins dans un délai de 90 jours et de les installer près des villes. “Imaginez une usine où l’on construit ces centres de données et c’est là que les serveurs apparaissent. Ils sont équipés, scellés dans ces conteneurs et quelqu’un appelle pour dire qu’ils ont besoin de deux mégawatts de capacité au large des côtes d’un pays.”

Beatrice Nicolas-Meunier, chef de projet à la firme d’ingénierie Naval Group qui a construit le centre de données Natick en utilisant la technologie sous-marine, dit que l’échelle n’est pas un problème. “En ce qui concerne la technologie, on peut aller de plus en plus loin” explique-t-elle. Tout problème potentiel provient du transport d’objets plus gros. Elle dit que l’entreprise devrait adopter une technologie marine spécialisée pour déplacer de tels centres de données géants. “Si Microsoft demain voulait en développer un très grand, il faudrait utiliser les mêmes outils” explique Nicolas-Meunier. “Les limites sont les outils autour du déploiement d’un tel vaisseau.”

Si tout se déroule comme prévu pour Microsoft, Cutler imagine la création de centres de données sous-marins au large des côtes des pays du monde entier, ajoutant que, dans la plupart des cas, les villes à forte population ne sont qu’à 200 kilomètres de la côte. Et rapprocher les centres de données des villes pourrait avoir un autre avantage : si les données n’ont pas à se déplacer si loin, les connexions sont plus rapides. Mais ne vous attendez pas à ce qu’ils soient ajoutés à des lacs ou à d’autres plans d’eau. “Ce qu’il y a de bien avec l’océan, c’est qu’il y a toujours un courant” dit-il. “Avec un plan d’eau stagnante, où va la chaleur ?”

Le “Selfish Ledger” de Google

Le “Selfish Ledger” de Google

Cette vidéo interne de 2016 montre un concept de Google sur comment la collecte totale de données pourrait remodeler la société.

Google a bâti une entreprise valant plusieurs milliards de dollars grâce à la connaissance de tout ce qui concerne ses utilisateurs. Aujourd’hui, une vidéo produite au sein de Google et obtenue par The Verge offre un regard étonnamment ambitieux et troublant sur la façon dont certains au sein de l’entreprise envisagent d’utiliser cette information à l’avenir.

La vidéo a été réalisée fin 2016 par Nick Foster, responsable du design chez X (anciennement Google X) et co-fondateur du Near Future Laboratory. La vidéo, partagée en interne au sein de Google, imagine un avenir de collecte totale de données, où Google aide les utilisateurs à s’aligner avec leurs objectifs, imprime des dispositifs personnalisés pour collecter plus de données, et guide même le comportement de populations entières pour résoudre des problèmes globaux comme la pauvreté et la maladie.

Lorsqu’on lui a demandé de commenter la vidéo, un porte-parole de X a fait la déclaration suivante à The Verge :

“Nous comprenons que ce soit perturbateur, c’était le but. Il s’agit d’une expérience de pensée de l’équipe de conception d’il y a des années qui utilise une technique connue sous le nom de “design spéculatif” pour explorer des idées et des concepts gênants afin de provoquer la discussion et le débat. Ce n’est pas lié à des produits actuels ou futurs.”

Intitulé The Selfish Ledger, ce film de 9 minutes débute par une histoire de l’épigénétique lamarckienne, qui s’intéresse largement à la transmission des traits acquis au cours de la vie d’un organisme. En narrant la vidéo, Foster reconnaît que cette théorie a été discréditée lorsqu’il s’agit de génétique, mais dit qu’elle fournit une métaphore utile pour les données des utilisateurs. (Le titre est un hommage au livre de Richard Dawkins de 1976, The Selfish Gene.) La façon dont nous utilisons nos téléphones crée “une représentation en constante évolution de qui nous sommes” ce que Foster appelle un “ledger” (registre en français), posant que ces profils de données pourraient être construits, utilisés pour modifier les comportements et transférés d’un utilisateur à l’autre :

“Les principes de conception centrée sur l’utilisateur ont dominé le monde de l’informatique pendant de nombreuses décennies, mais que se passerait-il si on regardait les choses un peu différemment ? Et si l’on pouvait donner au “ledger” une volonté ou un but plutôt que de simplement servir de registre historique ? Et si nous nous concentrions sur la création d’un “ledger” plus riche en introduisant plus de sources d’information ? Et si nous nous considérions non pas comme les propriétaires de cette information, mais comme des gardiens, des porteurs transitoires ou des tuteurs ?”

Ce qu’on appelle le registre de l’utilisation de nos appareils, les données sur nos “actions, décisions, préférences, mouvements et relations”, est quelque chose qui pourrait être transmis à d’autres utilisateurs, tout comme l’information génétique est transmise d’une génération à l’autre, dit Foster.

En s’appuyant sur l’idée de ce registre, la partie centrale de la vidéo présente un système conceptuel Resolutions by Google, dans lequel Google incite les utilisateurs à choisir un objectif de vie et les guide ensuite vers celui-ci dans chaque interaction qu’ils ont avec leur téléphone. Les exemples, qui “reflètent les valeurs de Google en tant qu’organisation” incluent notamment une incitation à essayer une option plus respectueuse de l’environnement lorsqu’on appelle un Uber ou à acheter des produits locaux de Safeway.

Bien sûr, le concept est basé sur un accès de Google à une énorme quantité de données et de décisions des utilisateurs. Les préoccupations relatives à la protection de la vie privée ou les externalités négatives potentielles ne sont jamais mentionnées dans la vidéo. La demande du ledger d’obtenir toujours plus de données pourrait être l’aspect le plus troublant de la présentation.

Foster envisage un avenir où “la notion de ledger axé sur les objectifs devient plus acceptable” et où “les suggestions peuvent être converties non pas par l’utilisateur mais par le ledger lui-même”. C’est là que les références à Black Mirror se manifestent, le ledger cherchant activement à combler les lacunes dans ses connaissances et même à sélectionner des produits de collecte de données à acheter qui, selon lui, pourraient plaire à l’utilisateur. L’exemple donné dans la vidéo est une balance de salle de bain parce que le ledger ne sait pas encore combien pèse son utilisateur. La vidéo prend ensuite une autre tournure vers la science-fiction qui provoque un sentiment angoissant, imaginant que le ledger peut devenir si astucieux qu’il propose et imprime en 3D ses propres conceptions.

La vision du ledger de Foster va au-delà d’un outil d’auto-amélioration. Le système serait capable de “combler les lacunes dans ses connaissances et d’affiner son modèle de comportement humain”, pas seulement votre comportement en particulier ou le mien, mais celui de l’espèce humaine tout entière. “En considérant les données des utilisateurs comme multigénérationnelles, explique Foster, il devient possible pour les utilisateurs émergents de bénéficier des comportements et des décisions de la génération précédente. Foster imagine l’exploitation de la base de données du comportement humain à la recherche de modèles, le “séquençage” comme le génome humain, et la “prédiction de plus en plus précise des décisions et des comportements futurs.”

“Au fur et à mesure que les cycles de collecte et de comparaison s’étendent, conclut Foster, il est possible de développer une compréhension à l’échelle de l’espèce de questions complexes telles que la dépression, la santé et la pauvreté.”

Certes, le travail de Foster est de diriger le design chez X, l’usine “moonshot” de Google avec des objectifs intrinsèquement futuristes, et le concept de ledger frôle la science-fiction, mais il s’aligne presque parfaitement avec les attitudes exprimées dans les produits existants de Google. Google Photos présume déjà de savoir ce que vous considérerez comme des moments forts de la vie, en proposant des albums entiers sur la base de ses interprétations avec l’IA. Google Maps et l’assistant Google font tous les deux des suggestions basées sur les informations qu’ils ont sur votre emplacement habituel et vos habitudes. La tendance avec tous ces services a été vers une plus grande curiosité et une plus grande assurance de la part de Google. Même les compositions des emails sont automatisées dans Gmail.

À une époque où l’éthique des nouvelles technologies et de l’intelligence artificielle fait son entrée dans le discours public, Google continue d’être pris au dépourvu par les implications éthiques et les inconvénients potentiels de ses produits, comme on l’a vu tout récemment avec sa démonstration de l’intelligence artificielle en duplex à l’I/O. Le tollé sur le potentiel de Duplex à tromper a incité Google à ajouter la promesse que son IA s’identifiera toujours comme tel lorsqu’il appellera des employés de service qui ne soupçonnent rien.

Le Selfish Ledger positionne Google comme celui qui résout les problèmes les plus insolubles du monde, alimenté par un degré d’informations personnelles d’une intimité inquiétante de chaque utilisateur et une facilité à guider le comportement de populations entières. Rien ne suggère que ce soit plus qu’un exercice de réflexion à l’intérieur de Google, initié par un dirigeant influent. Mais il donne un aperçu éclairant des types de conversations qui se déroulent au sein de l’entreprise qui est déjà le collecteur de données personnelles le plus prolifique au monde.

5 signes qui indiquent que vous vous êtes trompé de carrière

5 signes qui indiquent que vous vous êtes trompé de carrière

Bien que “choisir la mauvaise carrière n’est pas une chose rare”, selon Karen Elizaga, coach de carrière et auteur de Find Your Sweet Spot, ce n’est pas toujours facile de faire la différence entre le mauvais poste et la mauvaise carrière. Si vous êtes malheureux et que vous le savez, mais que vous n’êtes pas sûr d’avoir besoin d’un nouvel emploi ou de changer de carrière, lisez ce qui suit pour savoir à quoi ressemble une mauvaise carrière et ce que vous pouvez faire si vous vous rendez compte de devoir changer les choses.

Tout d’abord, selon deux experts en carrières, voici cinq signes qui indiquent que vous êtes dans la mauvaise carrière.

  1. Vous travaillez dur, mais vos résultats sont insatisfaisants

“Vous aimez le domaine dans lequel vous êtes, et vous êtes très assidu dans l’accomplissement de votre travail” décrit Elizaga “mais vous n’obtenez pas les résultats que vous voulez ou que vos collègues obtiennent”. Si cela vous semble bien familier “il est tout à fait possible que vous n’ayez pas les compétences ou le talent qu’il faut pour réussir”.

  1. Vous vous plaignez beaucoup de votre travail

D’un autre côté, si vous passez beaucoup de temps à vous plaindre de votre travail, vous avez peut-être choisi la mauvaise carrière, prévient Hallie Crawford, coach de carrière. Un autre signe qui indique que vous avez besoin de changement ? “Vous passez la plupart de votre temps à la maison et au travail à alimenter des pensées négatives et à les exprimer” explique Crawford.

  1. L’industrie est contraire à vos croyances

Selon Elizaga, “il peut y avoir quelque chose dans un emploi qui vous plaît en particulier, ou bien le salaire, le lieu de travail ou le prestige de l’entreprise, qui peut vous inciter à vous lancer.” Mais, malgré ces avantages évidents, “en fin de compte, vous n’êtes pas du tout d’accord avec les valeurs morales ou politiques de cette carrière” nous dit Elizaga.

  1. Cette carrière ne fait pas appel à vos atouts

Vous voulez une carrière qui joue sur vos atouts et évite vos faiblesses. Ainsi, “lorsque vous n’utilisez jamais vos atouts, votre carrière n’est ni gratifiante ni épanouissante” dit Crawford, et cela n’est peut-être pas ce qu’il vous faut.

  1. Vous vous imaginez démissionner

Et vous seriez même heureux si on vous licenciait. “C’est un signe indéniable que votre choix de carrière ne vous convient pas” selon Crawford.

Si un ou plusieurs de ces signes indiquent que vous êtes dans la mauvaise carrière, soyez rassuré : Vous n’avez pas besoin d’y rester et vous n’avez pas besoin de retourner à l’école pour en changer, nous dit Elizaga.

“Tout d’abord, prenez une grande inspiration et faites le point”, suggère-t-elle. “Demandez-vous, qui êtes-vous au plus profond de vous ? Quelles sont vos compétences ? Qu’est-ce qui vous motive ? Qu’est-ce qui vous rend heureux ? C’est une étape que tant de gens sautent parce qu’ils se concentrent sur les emplois disponibles ou des carrières apparemment intéressantes, plutôt que sur leur propre motivation.”

Ensuite, évaluez vos atouts et les compétences que vous avez et qui sont transférables à n’importe quelle carrière, dit Elizaga. “Vous pourriez être surprise de voir à quel point vous êtes prêt pour une nouvelle carrière”, dit-elle.

Une fois que vous avez ciblé quelques domaines que vous aimeriez explorer, il est temps d’aller à la rencontre des professionnels de ces industries. “Songez à réaliser des entretiens informatifs” dit Crawford. ” Renseignez-vous sur ces nouvelles orientations possibles et sur ce qu’il faut pour se lancer. Y a-t-il certaines compétences ou un type d’expérience spécifique requis ? Devez-vous suivre des cours ou faire du bénévolat en dehors du travail pour gagner de l’expérience dans un certain domaine ? Cela vous aidera à prendre une décision plus éclairée quant à savoir si et combien d’études ou d’argent pourraient être nécessaires. Vous remarquerez peut-être ne devoir suivre qu’un ou deux cours.”

Enfin, pour gagner de l’expérience dans un nouveau domaine, faites du bénévolat avant de postuler à un poste, suggère Elizaga. “S’il y a une industrie dans laquelle vous voulez vous lancer, mais vous savez que vous devez acquérir de nouvelles compétences, consacrez quelques heures pendant la semaine ou le week-end pour faire du bénévolat ou un stage dans une autre entreprise” dit Elizaga. De cette façon, “vous allez progressivement construire votre arsenal d’outils et finalement l’expérience nécessaire pour une nouvelle carrière”.

Dareboost, l’outil pour se préparer à la Google Speed Update

Dareboost, l’outil pour se préparer à la Google Speed Update

La vitesse de chargement des pages web est devenue un sujet brûlant dans le référencement naturel depuis que Google a annoncé le déploiement de Google Speed Update. Avoir un site Web à chargement rapide est maintenant plus important que jamais, avec Google regardant la vitesse de chargement comme un signal de classement. L’outil PageSpeed Insights de Google a été un favori pour la préparation à cette mise à jour, mais pour les professionnels chevronnés, il n’offre pas la granularité dont ils besoin pour formuler des recommandations concrètes à leurs clients. Récemment, un nouvel outil a fait son apparition : DareBoost.

Qu’est-ce DareBoost ?

DareBoost est une solution SaaS, un outil en ligne pour tester, analyser et surveiller la vitesse et la qualité des sites web. La fonctionnalité principale de DareBoost consiste à analyser la vitesse de chargement des pages web et à fournir des recommandations d’amélioration. DareBoost est cependant bien plus qu’un simple outil de test de vitesse. C’est un service tout-en-un pour gérer les performances des sites web: analyse, monitoring et benchmarking, le tout sans aucune installation. DareBoost offre un environnement simple mais puissant pour répondre aux besoins de tout type d’organisation. Il convient aux gestionnaires de SEO (référencement naturel), aux développeurs web, ainsi qu’aux gestionnaires de commerce électronique.

Le rapport d’analyse regroupe des dizaines de statistiques sur le site web testé. Bien sûr, on y trouve des données habituelles telles que le temps de chargement et le poids de la page, mais DareBoost va bien au-delà des autres, en fournissant des métriques directement liées à l’UX (expérience utilisateur), grâce à l’analyse vidéo avec des fonctionnalités telles que Start Render, Visually Complete et Speed Index. En outre, le service aide à analyser et à comprendre les résultats, avec des informations et des documentations liées aux recommandations de Google.

Un outil simple à utiliser

La raison principale pour laquelle les utilisateurs aiment DareBoost par rapport à d’autres systèmes de test de vitesse de sites web est sa conception épurée. La plupart des produits concurrents donnent des pages de données difficiles à comprendre, et ils ne montrent pas comment résoudre les problèmes.

C’est loin d’être le cas avec DareBoost, puisque chaque compte comprend un tableau de bord avec environ trois ou quatre modules, chacun d’entre eux expliquant clairement sa fonction.

Les grands boutons et la grande quantité d’espace blanc aident les yeux à faire les bonnes actions. Par exemple, la plupart des utilisateurs remarquent immédiatement que le bouton « Nouvelle analyse » en haut est l’endroit où commencer. On peut également voir que le bouton « Surveiller une nouvelle page » est une autre option plutôt claire.

Une fois qu’on pointe sur un site ou une page pour la tester, tous les résultats tiennent dans une petite zone, ce qui rend la compréhension plutôt agréable. Tout ce qu’on à faire est de sauvegarder cette page dans ses favoris pour s’y référer tous les jours ou toutes les semaines afin de s’assurer d’être sur la bonne voie et découvrir quelles parties du site web ont besoin d’amélioration, en termes de rapidité.

Un outil très pratique

En plus de choisir si on veut faire un test de vitesse sur desktop ou mobile, DareBoost permet également de sélectionner quel navigateur fera le test (Chrome ou Firefox) et d’où le test sera effectué. Il y a malheureusement moins d’options de navigation et de localisation dans DareBoost, ce qui réduit quelque peu l’utilité de l’outil.

Cependant, cela est plus que compensé par les fonctionnalités supplémentaires. On peut, par exemple, émuler un utilisateur avec un adblocker, ce qui vous permettrait d’effectuer des comparaisons significatives sur PageSpeed avec et sans adblocking.

En outre, on peut blacklister certains domaines dans son test, ce qui permet d’affiner les résultats. L’utilisateur peut, par exemple, blacklister facebook.com et donc tester la vitesse de chargement d’un site web comme s’il n’y avait pas d’intégrations Facebook présentes. Le rapport que DareBoost génère à partir de chaque test offre une variété d’informations détaillées qui peuvent être très utiles.

Des statistiques et détails très intéressantes

Avoir une jolie interface est toujours bon, mais comment ces outils fonctionnent-ils pour apporter plus d’argent à une boutique en ligne?

Une fois qu’on a cliqué sur le bouton « Nouvelle analyse », on peut coller une URL et sélectionner l’emplacement, le navigateur et les tests d’interface. Cela révèle les statistiques de vitesse et les détails du site. La première zone montre une ventilation du bien-être du site. Par exemple, elle indique un score global, le nombre de problèmes à prendre en compte, les améliorations qu’on doit examiner et le nombre total de succès obtenus.

Cette fonctionnalité est intéressante, parce qu’elle permet de savoir si le site a quelques problèmes. Après cela, on peut commencer à regarder des informations plus détaillées.

La zone suivante montre quelques graphiques intéressants après le test. On peut vérifier combien de requêtes ont été faites pour charger le site, et le poids de certains scripts comme HTML et CSS. Le temps de chargement est la principale zone à examiner, car il s’agit d’un aperçu du temps que les visiteurs doivent attendre pour voir le contenu du site.

L’une des meilleures parties de DareBoost est la section « meilleures pratiques et astuces », où elle divise chaque problème en sections et indique quelles solutions sont disponibles pour résoudre des problèmes.

Audit des sites web avec des directives d’optimisation détaillées

Le service en ligne vérifie les 100 meilleures pratiques et erreurs courantes sur les pages web, offrant un audit complet sur les performances, le référencement, l’accessibilité, la sécurité, etc. DareBoost détecte également les technologies utilisées sur les pages web, puis chacun des points de contrôle est hautement contextualisé afin de produire des guides pas à pas pour aider le webmaster à améliorer son site Web. L’utilisateur peut partager l’URL du rapport à tout moment, ou même l’exporter en tant que fichier PDF. Pour les professionnels, une option white-label est également disponible.

Des fonctions de surveillance puissantes

Grâce à ses fonctionnalités de surveillance, DareBoost permet de bénéficier de sa puissante technologie de test et d’analyse de vitesse de manière automatisée. Les pages web les plus stratégiques seront testées tous les jours ou toutes les heures, selon les besoins de l’entreprise. Le tableau de bord de cet outil fournit des graphiques incroyablement efficaces pour trouver les données. Le webmaster recevra également des résumés hebdomadaires directement dans sa boîte aux lettres. Il peut même définir des alertes personnelles afin de s’assurer d’être averti immédiatement s’il y a un ralentissement ou une régression de la qualité sur le site web.

Un excellent outil pour comparer et évaluer ses performances

Les tests sont excellents, mais comparer est encore mieux. DareBoost permet non seulement d’analyser et de surveiller n’importe quelle page web qu’on veut (même le site web de son concurrent), mais il donne également accès à une gamme incroyable de fonctionnalités de comparaison. On peut comparer son site web avec celui de son concurrent. On peut aussi comparer les versions mobiles et desktop du site et comparer les vues uniques et les vues répétées. Les fonctions de surveillance viennent également avec des capacités de benchmarking. Elles donnent la possibilité de créer autant de groupes que nécessaire pour analyser ses données et s’assurer que son site web est très rapide, voire le plus rapide.

Mais que fait Facebook sur la blockchain ?

Mais que fait Facebook sur la blockchain ?

Avec le lancement de son groupe de recherche blockchain, dirigé par David Marcus, ancien responsable de Messenger, Facebook a fait un rebond de marché baissier.

Après plusieurs mois de critiques contre Facebook concernant le scandale de Cambridge Analytica, et par extension contre les lacunes de Facebook en termes de protection des données et de responsabilité, l’entreprise avait bien besoin d’un peu de répit. C’est exactement ce que quelques jours de rumeurs confuses sur la manière dont Facebook envisageait l’utilisation d’une blockchain ont fourni.

Mais bien que les questions dernièrement soulevées des deux côtés de l’Atlantique aient pu contribuer à ce lancement, Facebook a toujours été destiné à se lancer sur la blockchain. C’est en partie parce que tout le monde dans la Silicon Valley s’y met aussi. Amazon, Google et Microsoft ont tous récemment lancé des projets impliquant la technologie blockchain ; même Apple, en 2017, a déposé un brevet qui laissait entendre son intérêt pour les registres distribués.

Facebook avait chargé un seul employé, Morgan Beller, de se pencher sur le sujet il y a presque un an. Pourtant, quelque chose ne tourne pas rond. Conçue d’abord comme la fondation numérique pour la monnaie virtuelle bitcoin, une blockchain est un registre en ligne public permanent qui traite des transactions à l’aide d’un essaim d’ordinateurs plutôt que d’un seul serveur central.

L’inventeur de bitcoin Satoshi Nakamoto a clairement exprimé sa volonté de se débarrasser des banques centrales et des sociétés émettrices de cartes de crédit en utilisant le système peer-to-peer blockchain.

Il va au-delà de l’aspect financier : les gens dans la sphère de la blockchain évoquent depuis longtemps la décentralisation du web lui-même. Ils aspirent à la chute des plates-formes technologiques centralisées comme Facebook ou Google et à l’émergence de communautés en ligne qui permettraient aux utilisateurs de se connecter sans confier leurs données à des entreprises intermédiaires. Les avantages de ce modèle sont nombreux, comme un plus grand contrôle pour les utilisateurs sur la façon dont leurs informations personnelles sont utilisées.

En avril, ironiquement, Brittany Kaiser, ancienne directrice de Cambridge Analytica, s’est jointe à IOVO, une entreprise basée sur la blockchain qui a pour objectif de permettre aux gens sur les réseaux sociaux de décider avec qui ils partagent des données. (Fait divers pour les amateurs de théories du complot : tous les acteurs du récent scandale, y compris Aleksandr Kogan et Steve Bannon, et même Cambridge Analytica, ont des antécédents en matière de monnaie virtuelle).

D’autres projets de réseaux sociaux basés sur une blockchain ont été lancés, en particulier Steemit, une plate-forme où les utilisateurs sont récompensés par de la monnaie virtuelle au lieu de J’aimes, même si aucun de ces projets n’est encore connu.

Bien qu’il soit farfelu de penser que Facebook ait choisi de se suicider par la décentralisation (soit en abandonnant le contrôle des données de ses utilisateurs, soit en réduisant son monopole), l’entreprise a peut-être décidé d’essayer de mieux connaître son ennemi ou de se lancer sur la blockchain avant qu’une véritable concurrence n’émerge.

Une seule chose suggère que Facebook prépare quelque chose de gros : le haut calibre des personnes impliquées. David Marcus est l’homme qui a fait de Messenger la machine de guerre qu’elle est aujourd’hui ; Kevin Weil et James Everingham, deux cadres supérieurs de la nouvelle division de la blockchain, étaient des cadres supérieurs importants chez Instagram. Pourquoi Mark Zuckerberg aurait-il demandé à ce trio d’employés remarquables de travailler sur une simple expérimentation ?

Comme TechCrunch l’a fait remarquer, Messenger et Instagram ont été si perfectionnés qu’ils sont devenus ennuyants pour Marcus et ses collègues d’Instagram. En créant ce nouveau jouet pour qu’ils puissent s’amuser avec, Facebook a évité de les perdre face à la concurrence.

Nous savons que Marcus (tout comme, dans une moindre mesure, Everingham) est un partisan de la blockchain : spécialiste du paiement et ancien président de PayPal, il possède des bitcoins depuis 2012, et a souvent parlé de son potentiel. Il a récemment rejoint le conseil d’administration de Coinbase, un service bureau de change de monnaie virtuelle. En février, Marcus a annoncé que les paiements en monnaie virtuelle n’allaient pas être implantés sur Facebook (et, en particulier, sur Messenger, qui inclut une fonction de paiement) dans le futur proche : ils étaient encore trop lents et trop chers. Maintenant, Marcus va pouvoir tenter de résoudre le problème ou inventer d’autres services alimentés par la blockchain dans sa toute nouvelle usine à idées.

Peut-être que quelque chose de bien en résultera. Mais une chose est sûre : la rumeur très répandue d’un FaceCoin, une monnaie virtuelle créé par Facebook, est très probablement fausse. Facebook n’a pas besoin d’un autre scandale réglementaire.

Google arrive sur le marché du streaming musical avec YouTube Music

Google arrive sur le marché du streaming musical avec YouTube Music

Google arrive sur le marché déjà très encombré du streaming musical avec son propre service d’abonnement dénommé Youtube Music. Les rapports indiquent que YouTube tentera à nouveau de créer un service de musique payant pour rivaliser avec Spotify et Apple Music.

Youtube Music déjà disponible dans 4 pays

Le nouveau service de streaming musical de YouTube est déjà disponible aux États-Unis, en Australie, au Mexique et en Corée du Sud, soit sous forme de service gratuit avec publicités, soit sous forme d’abonnement payant à 9,99 $ par mois ou 11,99 $ avec accès à YouTube Premium.

La réponse de Google à Spotify devrait arriver dans d’autres pays, comme le Royaume-Uni, dans les prochaines semaines. Le service promet d’offrir des millions de chansons, des milliers de listes de lecture et des canaux de radio d’artistes. YouTube Music tire également parti de la vaste collection de vidéos musicales de l’entreprise, combinant des pistes audio et des vidéos. « Les jours où il fallait naviguer entre plusieurs applications musicales et YouTube sont terminés”, a écrit Elias Roman, chef de produit pour YouTube Music, dans un article de blog.

“YouTube Music est un nouveau service de musique en streaming où on trouve des chansons officielles, des albums, des milliers de playlists et des radios d’artistes, ainsi que le formidable catalogue de remixes, performances live, reprises et vidéos musicales de YouTube qu’on ne trouve nulle part ailleurs.

Différences entre YouTube Music et Google Play Musique

Les deux services ont différentes bibliothèques. Avec YouTube Music, l’utilisateur n’obtient pas seulement des chansons officielles. Il obtient également de très nombreux remix, reprises, versions live et parodies de YouTube, ainsi que de la musique de personnes qui n’ont pas de contrat d’enregistrement. Et bien sûr, il a également une vidéo.

Outre les pistes susmentionnées, YouTube Music peut rechercher des paroles particulières et même utiliser le langage naturel. Pour les personnes à l’aéroport, il suggérera des pistes de salle de gym ou de la musique relaxante avant le départ. La découverte va clairement jouer un rôle important dans l’expérience YouTube Music. La plateforme proposera des milliers de playlists thématiques pour des genres de musique ou des humeurs particuliers.

Coexistence temporaire de Youtube Music avec Google Play Musique

Les rapports précédents suggéraient que le service, qui s’appellerait YouTube Remix, remplacerait Google Play Musique. Cela ne semble pas être le cas. Roman a expliqué que les abonnés à Google Play Musique obtiendront automatiquement un abonnement YouTube Music Premium. Pour l’instant, ces abonnés pourront toujours accéder à la musique, aux vidéos mises en ligne et aux playlists achetées dans Google Play Musique.

L’application de musique autonome fait partie d’une refonte plus large de YouTube Red, le service d’abonnement de la plate-forme de streaming, qui s’appellera désormais YouTube Premium.

Aux États-Unis, YouTube Music Premium coûtera 9,99 $ par mois, bien qu’une version gratuite de YouTube Music avec des publicités, similaire à Spotify, soit également disponible. En payant 11,99 $ par mois, l’utilisateur aura accès à YouTube Premium, qui comprend YouTube Music Premium, ainsi que des vidéos sans publicité, des téléchargements et l’accès à YouTube Originals.

Les atouts de Youtube Music

Grâce à sa position dominante dans tous les domaines, de l’e-mail à la recherche, en passant par les cartes et les calendriers, Google connaît l’emplacement, les habitudes, les goûts et les projets futurs de ses utilisateurs. En accédant aux vastes quantités de données collectées par ces services numériques, Google souhaite offrir un nouveau type de service de streaming musical hautement personnalisé.

En combinant ces connaissances personnelles avec l’intelligence artificielle, YouTube Music devrait, en théorie, être en mesure d’offrir des suggestions d’écoute adaptées à la situation, qu’il s’agisse de s’endormir ou de se rendre au travail le matin.

Roman a également noté que YouTube Music sera en mesure de trouver des chansons spécifiques à partir de termes aussi vagues que « cette chanson hipster avec le sifflement”. Cela suggère que le service utilisera les algorithmes de recherche de Google qui adaptent également les recommandations en se basant sur l’historique, ainsi que les données de localisation.

«L’écran d’accueil personnalisé de YouTube Music s’adapte de manière dynamique pour fournir des recommandations basées sur l’historique d’écoute des personnes, où elles se trouvent et ce qu’elles font», explique Mme Roman dans un article de blog.

Quid de la conquête d’une part de marché dans le cercle fermé du streaming musical ?

Alors que certains peuvent trouver que les données insidieuses de Google sont effrayantes, compte tenu des scandales récents, ce type d’offre de contenu personnalisé peut être le seul moyen pour le géant de la technologie de se faufiler sur la position dominante de ses concurrents.

Lancé il y a près de 10 ans, le groupe suédois Spotify s’est imposé comme le premier service d’abonnement musical payant, avec plus de 75 millions d’abonnés mensuels. En dépit d’avoir seulement moins de trois ans, Apple Music a réussi à utiliser ses charmes pour attirer environ 50 millions d’abonnés.

A eux seuls, ils représentent plus de la moitié du marché mondial des services d’abonnement musical et seul Amazon Music offrant une véritable concurrence. Tous offrent des bibliothèques de musique similaires à des prix similaires, et l’offre de Google ne sera pas différente à cet égard, de sorte que le jouer de ses forces sera la clé s’il veut offrir quelque chose qui vaut vraiment la peine.

YouTube Music n’est pas la première incursion de Google sur le marché de la musique en streaming. La firme de Mountain View a déjà lancé Google Play Musique en 2011 et malgré son avance sur Apple et Amazon, le service n’a jamais connu le même niveau d’adoption.

Avec le lancement de YouTube Music en 2015, Google espérait capitaliser sur les 1,3 milliard d’utilisateurs de YouTube, que beaucoup utilisent comme plateforme pour écouter de la musique gratuitement. Cependant, le service n’a atteint que cinq pays et n’a pas réussi à atteindre le courant dominant.

Le tout nouveau YouTube Music a été lancé le 22 mai aux États-Unis, en Australie, en Nouvelle-Zélande, au Mexique et en Corée du Sud, avant d’être déployé dans 14 autres endroits, dont le Royaume-Uni.

Il coïncidera avec le changement de marque de YouTube Red à YouTube Premium, ainsi que la suppression progressive de Google Music, car le géant de la technologie vise l’unification de ses services de streaming vidéo et de streaming musical sous une même marque.