Ok

En poursuivant votre navigation sur ce site, vous acceptez l'utilisation de cookies. Ces derniers assurent le bon fonctionnement de nos services. En savoir plus.

Web

  • L'attraction technologique risquée du journalisme

    Il n'y a rien de mal à utiliser la technologie pour résoudre des problèmes, y compris ceux créés par la technologie, ou pour donner à une entreprise un avantage concurrentiel. Mais même la technologie la plus avancée ne sauvera pas l'industrie des médias si l'on ne tient pas compte des personnes - journalistes et publics - qui sont invitées à l'utiliser.
    La technologie était censée résoudre certains des plus gros problèmes du monde. Connectez tout le monde à Internet, c'était une fois supposé, et la démocratie suivrait. Collectez suffisamment de données et toutes nos questions recevront une réponse. Mettez tout en ligne et les algorithmes feraient le reste. Le monde se dirigerait pratiquement de lui-même.
    Au lieu de cela, nous savons maintenant que la technologie numérique peut être utilisée pour saper la démocratie; qu'il soulève plus de questions qu'il n'en répond; et qu'un monde qui se dirige lui-même ressemble plus à un scénario de cauchemar orwellien qu'à un noble objectif. Mais si la technologie n'est pas la solution, ce n'est pas vraiment le problème non plus; notre concentration sur elle est.
    Considérez l'expérience de l'industrie des médias, où la révolution numérique a fait des ravages sur les modèles commerciaux en vigueur au cours de la dernière décennie. Les éditeurs et les éditeurs ont réagi en mettant toute leur confiance dans la technologie: suivi de toutes sortes de mesures, embrassant le journalisme de données, l'embauche d'équipes vidéo et l'ouverture de studios de podcast.

  • Des stratégies pour les moteurs de recherche

    Un rapport spécial de la conférence Search Engine Strategies 2001, 12-14 août, formation seo Lille San Jose CA.
    L'analyse des liens est l'une des techniques les plus importantes et les plus mal comprises utilisées par les moteurs de recherche pour déterminer la pertinence et un élément clé d'une optimisation réussie des moteurs de recherche. Des représentants de Google et de Teoma expliquent comment c'est fait.
    Si vous avez passé du temps au cours des dernières années à étudier le marketing des moteurs de recherche, vous connaissez probablement l'engouement pour les liens qui règne dans l'industrie. Tout le monde, des experts aux nouveaux dans le domaine, utilise des termes tels que la popularité des liens « et le classement des pages » et il semble que tous les forums de discussion et sites Web connexes aient des sections entières consacrées à la création de liens. En tant que fondement du Web, les liens ont toujours été importants, mais les liens eux-mêmes n'ont pas beaucoup changé depuis le jour où ils ont été créés, alors pourquoi tout cet intérêt renouvelé ?
    La raison en est que les principaux moteurs de recherche utilisent de plus en plus les liens pour améliorer la pertinence de leurs résultats de recherche. Cependant, le monde des liens et leur utilisation par les moteurs de recherche peuvent rapidement devenir déroutants. Pour aider à trier les éléments les plus importants de la liaison, la session «Regard sur les liens» a eu lieu lors de la conférence Search Engine Strategies à San Jose, en Californie. Les moteurs de recherche qui utilisent le plus les liens, Google et Teoma, ont tous deux envoyé des représentants pour expliquer pourquoi les liens sont importants pour leurs moteurs et comment les utiliser au mieux sur un site Web.
    Daniel Dulitz, directeur de la technologie chez Google, a commencé par énoncer l'un des points les plus importants de la session : à mesure que les index des moteurs de recherche s'agrandissent, il devient presque impossible de déterminer la pertinence d'une page Web en se basant uniquement sur des facteurs sur la page ( texte de la page, métas, titres, etc.). C'est ce fait, combiné au fait que la plupart des facteurs sur la page ne sont pas fiables en raison d'abus, qui a incité Google à commencer à examiner la structure des liens du Web pour aider à déterminer la pertinence d'une page par rapport à une requête.
    Selon Dulitz, lorsqu'ils déterminent la pertinence d'une page Web pour une recherche, ils utilisent leur système PageRank pour tenter de modéliser le comportement des internautes » en analysant la manière dont les pages sont liées les unes aux autres. Il a expliqué que Google considère l'interconnexion des pages Web comme un moyen de tirer parti de la structure démocratique du Web », avec des liens équivalents à des votes.
    Google traite essentiellement chaque lien d'un site à un autre comme un vote pour le site recevant le lien (popularité du lien), mais chaque vote n'est pas égal. Dulitz a utilisé un diagramme simple pour montrer que chaque page d'un site n'a qu'un vote à donner, donc plus il y a de liens vers différents sites sur la même page, moins chacun reçoit de vote. Il a également déclaré que les liens de sites de meilleure qualité ont plus de poids que ceux de sites de moindre qualité (par exemple, sites avec des liens cachés, impliqués dans des fermes de liens, pas de liens entrants, etc.). De plus, Google analyse non seulement qui crée un lien vers qui, mais analyse également le texte dans et autour des liens pour aider à déterminer la pertinence des pages recevant les liens.
    Dulitz a ensuite fourni quelques conseils utiles pour les webmasters. Lorsqu'ils créent des liens vers leurs sites, ils doivent :
    Obtenez des sites similaires à lier à leur site
    Attirez des liens naturellement en créant un contenu de haute qualité
    Évitez les fermes de liens et autres tactiques trompeuses
    Lorsqu'ils créent des liens vers d'autres sites, les webmasters doivent :
    Lien vers des sites similaires ou liés au leur
    Lien vers la page la plus pertinente pour leurs visiteurs (par exemple, ne vous contentez pas de créer un lien vers la page d'accueil)
    Évitez les liens vers des sites sans rapport
    Il a ensuite fourni quelques conseils généraux supplémentaires sur les liens :
    Assurez-vous que tous les liens fonctionnent sur tous les principaux navigateurs (par exemple, pas de JavaScript)
    Utilisez un texte descriptif dans les liens chaque fois que cela est possible (par exemple, pas de liens Cliquez ici)
    Assurez-vous que tous les liens sont faciles à trouver et aident les utilisateurs à naviguer facilement sur le site
    Éviter les liens cachés
    Paul Gardi, vice-président de la recherche pour Ask Jeeves/Teoma, a commencé par des commentaires similaires à ceux de Dulitz. Gardi a déclaré qu'en raison de la convergence statistique »et de la facilité avec laquelle ils peuvent être abusés, ni l'analyse du texte de la page ni la popularité des liens standard ne peuvent être utilisées pour déterminer la pertinence d'une page Web. Plus précisément, il a mentionné que la popularité des liens standard est inefficace car elle n'aide pas à déterminer le sujet ou le contexte du site, et les sites plus grands et plus populaires ont tendance à submerger les sites plus petits qui peuvent en réalité être plus pertinents pour une recherche.
    Pour lutter contre ces problèmes, Teoma considère le Web comme une entité mondiale contenant de nombreuses communautés de sites Web thématiques. Ils étudient ces communautés de sujets et la manière dont elles sont liées entre elles et entre elles pour déterminer non seulement la popularité de leurs liens, mais également le sujet et le contexte des sites concernés. Selon Gardi, Teoma est capable de le faire en utilisant sa méthode unique de classement des sites. Il a expliqué qu'au lieu de s'appuyer sur la popularité générale des liens pour déterminer les résultats, leur moteur tente d'utiliser une popularité spécifique à un sujet pour localiser les sites les plus populaires au sein d'une communauté de sujets spécifique. Cela se fait en analysant d'abord le Web dans son ensemble pour identifier les communautés de sujets.
    Teoma utilise ensuite la popularité des liens au sein de ces communautés pour déterminer quels sites sont les «autorités» sur le sujet de la requête et ce sont ces sites qui sont renvoyés comme résultats d'une recherche. En outre, il a mentionné qu'en analysant les liens des sites d'autorité, leur technologie est également capable de localiser des pages de ressources de haute qualité (pages de liens) liées à la requête d'origine. Chacun de ces composants est ensuite mis à disposition sur leur page de résultats de recherche comme suit : Résultats » sont les autorités, Affiner » sont les communautés de sujets connexes et Ressources » sont les pages de liens connexes.
    À la fin de sa présentation, Gardi a offert quelques conseils de base pour améliorer le classement d'une page Web chez Teoma. Il a dit:
    Optimisez vos pages
    Éviter le camouflage
    Évitez les liens vers de mauvais sites
    Dans l'ensemble, la session a été bien reçue et très instructive, surtout pour les novices en la matière. Étant donné que la plupart des principaux moteurs de recherche utilisent désormais une méthode d'analyse des liens, toute personne ayant un intérêt direct à être correctement indexée par les moteurs de recherche devrait envisager d'y participer à l'avenir.

     
  • Les télécommunications et l'Internet des objets

    Face à la concurrence féroce des start-ups natives du numérique, les opérateurs de télécommunications doivent développer des stratégies uniques et différenciées pour rivaliser sur le marché d'un demi-billion de dollars de l'Internet des objets. Velu Sinha, partenaire de la pratique Télécommunications de Bain, explique comment les opérateurs télécoms peuvent gagner en se concentrant sur la connectivité, la gestion du cycle de vie et des secteurs verticaux spécifiques pour tirer parti des écosystèmes partenaires.
    L'Internet des objets est une opportunité d'un demi-billion de dollars, car il permet aux entreprises de réduire les temps d'arrêt, d'améliorer leur efficacité et de générer des informations. De nombreux opérateurs historiques sont perturbés par des start-ups natives du numérique qui ne sont pas encombrées par l'héritage et qui sont capables de se concentrer directement sur les points faibles des clients. Pour ces opérateurs historiques, le cœur de la transformation numérique est de pouvoir capturer en toute sécurité et en continu les informations nécessaires pour optimiser et automatiser leurs processus grâce au machine learning et à l'intelligence artificielle. Cela leur permet d'améliorer la satisfaction et l'intimité des clients, et de créer une différenciation.
    Les opérateurs télécoms sont dans une position unique pour permettre ces transformations en raison de leurs compétences latentes dans la construction et l'exploitation de réseaux. Ils ont une expertise en plate-forme autour des annuaires et des OSS/BSS, qui sont essentiels pour permettre des solutions IoT à grande échelle. L'opportunité de fournir une connectivité, une gestion du cycle de vie et des solutions verticales vaut des dizaines de milliards de dollars. Pour remporter ces opportunités, les opérateurs télécoms doivent se concentrer sur des secteurs verticaux spécifiques et tirer parti des écosystèmes partenaires pour les appareils, les analyses et les canaux.