Sensibilisation à la #veille : atelier Connexion Y du 14 juin 2017

J’aurai le plaisir d’animer le 14 juin 2017 à 16h un atelier intitulé Accéder à l’information utile dans le cadre d’une journée organisée par Connexion Y.
Il ne sera évidemment pas question, dans les 55 minutes qui me seront imparties, de proposer une formation au sens stricte du terme. Je souhaite surtout profiter de cette occasion pour faire prendre conscience aux participants qu’ils détiennent déjà une bonne partie des compétences nécessaires à l’exploitation des informations qui les entourent online et offline.

Comme je l’ai déjà expliqué dans l’article Valoriser les usages de la veille, pas les outils, il me semble en effet que la recherche d’information et la mise en oeuvre d’une stratégie de veille reposent d’abord sur la posture et l’ouverture des collaborateurs en charge de ces missions, beaucoup plus que sur des outils ou des compétences pointues pour le maniement des outils qui pullulent sur le marché.

A l’inverse de beaucoup d’autres activités tout aussi primordiales pour le développement des entreprises, il suffit parfois de décider d’être en veille pour que les informations prennent de la valeur. Choisir d’exploiter le gisement d’innovations et d’améliorations que recèlent les informations, c’est décider de libérer les informations à l’intérieur de l’entreprise et chercher à conjuguer les intelligences et les énergies à tous les niveaux d’une organisation.

Je tenterai une fois encore de partager mon enthousiasme pour des méthodes et des aspirations qui peuvent permettre à chacun, grand ou petit, de s’insérer efficacement dans la société de l’information qui nous entoure, afin d’y trouver sa place et de s’y épanouir.

Vous pouvez vous inscrire pour participez gratuitement à cet atelier en utilisant le code DORE-5170.

#IE pour les PME-PMI : artisanale ou frugale ?

Une fois de plus, c’est l’excellent blog euresis qui me sert de point de départ pour cette publication. Dans un article intitulé Intelligence économique en PME : bricolage informel ou intelligence économique frugale ?, Pierre-Yves Debliquy liste certains des éléments qui caractérisent les pratiques de l’intelligence économique dans les petites et moyennes entreprises.

Capture d'écran du blog Euresis

Capture d’écran du blog Euresis

Les points mis en avant relèvent au final des freins au développement de l’IE dans les PME-PMI, même si ces obstacles dessinent également en creux les pistes à privilégier pour faciliter la mise en œuvre d’une démarche d’IE utile et efficace.
L’aspect sémantique des réflexions de l’auteur, bricolage de l’informel ou intelligence économique frugale ?, illustre assez bien le dilemme que rencontre tout professionnel confronté à des questions concernant l’adoption de procédures d’intelligence économique dans des organisations de taille réduite.

Si le terme « bricolage » donne d’après moi une image peu valorisante, le qualificatif « frugal » de la seconde proposition peut également induire en erreur.
Si « frugal » décrit une nécessaire économie de moyens financiers, c’est une définition adaptée.
En revanche, si « frugal » s’entend dans le sens de « léger », il peut donner de faux espoirs aux dirigeants d’entreprises.

PME : des conditions propices, des usages qui le sont moins

En effet, comme toutes les caractéristiques et obstacles mis en avant par M.Debliquy le laissent supposer, la majorité des PME-PMI a des organisations et des systèmes d’information structurellement inadaptés à la mise en œuvre d’un système de collecte, d’analyse et de valorisation des informations internes et externes. A l’inverse, la création d’une architecture et d’une nomenclature des informations utiles à la bonne marche de l’entreprise s’impose aux grandes structures, qui comptent un nombre trop important de collaborateurs, de services et de sites pour imaginer pouvoir simplement réunir les intelligences lorsque le besoin s’en fait sentir. Les groupes ont donc par nature une forme et un fonctionnement qui anticipent les besoins de l’IE.

Deux cerveaux échangent leurs engrenages CC Bernard Lamailloux

Deux cerveaux échangent leurs engrenages CC By Bernard Lamailloux

A l’échelle d’une PME, il semble pourtant plus facile de mobiliser et rapprocher les cerveaux afin de les faire travailler conjointement. Pourtant, l’IE peine à se développer dans ces petites et moyennes structures, alors qu’elle est largement répandue dans les ETI et grands groupes.

Si la concentration des informations utiles et la proximité des hommes qui les détiennent est objectivement un facteur qui devrait faciliter le développement de l’IE, pourquoi les PME-PMI françaises sont-elles si rarement sensibilisées et outillées pour en tirer profit ?

 IE : les RH avant les achats

Quelques pistes :

  • les dirigeants de PME-PMI sont majoritairement des experts de leur métier, et non des professionnels du management ;
  • l’information stratégique est rarement reconnue comme telle, par manque de recul et de vision stratégique ;
  • les dirigeants et cadres ont compris que l’information était source de pouvoir, mais pas qu’elle ne devenait valorisable qu’à partir du moment où elle est partagée ;
  • les objectifs de l’entreprise et la stratégie pour les atteindre, quand ils existent, sont peu ou mal formulés et diffusés en interne ;
  • la création, l’alimentation et la valorisation des informations internes et externes ne font pas partie des missions de ceux qui seraient en position de le faire.
Détourner des outils pour les mettre au service d'une stratégie

Détournements de marques CC By Calimaq

Cette liste, non-exhaustive, montre que ce qui manque aux PME-PMI nécessite peu de moyens financiers mais de profondes modifications des attitudes et des usages des collaborateurs. Et le faible développement de l’IE dans les petites et moyennes structures françaises illustre suffisamment que cela ne rend pas les choses plus aisées.

Pourtant, dans une « petite » structure, les outils informatiques qui peuvent servir de supports à l’intelligence économique peuvent rester relativement simples et extrapolés de logiciels usuels, gratuits et relativement plus simples à sécuriser en raison du faible nombre de postes et de personnes habilitées à y accéder.
La taille du marché, l’étendue de l’offre, la variété des concurrents rendent également les sources et les informations à collecter plus aisées à identifier, surveiller et utiliser.

Les freins à l’IE dans les PME-PMI

Ce qui bloque, on peut le retrouver en bas de la liste établie par Pierre-Yves Debliquy :

  • la réussite d’un projet d’intelligence économique en PME/PMI conduit à une modification de la démarche de management

  • il ne peut avoir d’intelligence économique que si l’activité de renseignement permet l’anticipation de l’environnement de l’entreprise, et est réalisée de façon volontariste

  • il n’est pas possible d’engager une PME/PMI dans une démarche collective d’intelligence économique sans une volonté claire du top management et une implication des équipes de terrain

Ce sont donc les hommes qui sont, volontairement ou non, le principal frein au développement de l’IE.
Le conservatisme, le manque de temps, la concentration des connaissances et des pouvoirs, l’appréhension, le manque de confiance, une incompréhension du cycle de vie de l’information et d’outils informatiques qui ne demandent pourtant qu’à être utilement détournés : voici les noms des freins au développement de l’IE dans les PME-PMI. Et c’est bien parce qu’il s’agit de former, motiver et accompagner des hommes plutôt que de choisir et implémenter un système informatique qu’une telle démarche n’a rien de simple et que la frugalité pourrait être un qualificatif inadapté, considérant l’énergie et la masse de travail à mettre en œuvre pour y parvenir.

Dès lors, pour entrer moi aussi dans le jeu de la re-dénomination de l’IE pour les PME, je propose à mon tour deux alternatives : l’intelligence économique artisanale (parce que faite « à la main » et avec un minimum d’automatisation informatique) ou l’intelligence économique sociale (parce que reposant essentiellement sur les compétences et contributions des hommes).

Le marché du management de l’information décortiqué : #veille, #data et #réseaux sociaux en hausse…

L’étude publiée par SerdaLab m’aurait été fort utile lorsque je me suis attelé à la réalisation de ma propre étude de marché.

Avec les moyens humains et financiers et suffisamment de temps, il semble logique de pouvoir produire ces chiffres qui confirmeront sans doute le sentiment de beaucoup de professionnels du secteur.

Evolution attendue du CA de 8 secteurs du management de l'information. By http://www.serdalab.com/

Evolution attendue du CA de 8 secteurs du management de l’information. By http://www.serdalab.com/

L’aspect le plus remarquable est pour moi celui qui montre le ralentissement de la dynamique économique de la production de contenus (baisse des CA attendus dans l’audiovisuel, la bibliothèque et la documentation) et que c’est l’hébergement et le traitement de l’information qui seraient désormais les marchés les plus porteurs (hausse des CA attendus pour les spécialités veille, data, réseaux sociaux, dématérialisation).

Peut-on en conclure qu’on y observe l’effet de l’avènement des médias sociaux et des technologies permettant à chacun de produire des contenus rédactionnels et audiovisuels pour un coût marginal proche de zéro ?

Si oui, la question de la collecte et de la qualification d’informations de qualité risque de devenir de plus en plus problématique, sans parler de la nécessaire évolution du modèle économique des médias…

Si non, quelle conclusion en tirer ?

Je suis curieux de connaître vos avis sur cette question…

Source : Infographie : les chiffres clés du marché du management de l’information, évolution et projection sur 2018 | Archimag

A bas le #SEO !

Le SEO, ou comment aborder scientifiquement une activité créative

Le SEO, nouvelle contrainte formelle ?

En tant que professionnel de la rédaction et de la création de contenus issu d’une formation « classique », j’ai été amené à intégrer une nouvelle contrainte propre à la rédaction pour le web. L’angle, la tonalité, la concision, le rythme, le vocabulaire, la syntaxe sont les totems « traditionnels » du rédacteur chevronné. L’optimisation pour les moteurs de recherche (Search Engine Optimization) est venue chambouler ce schéma déjà assez complexe. Comprendre et maîtriser le fonctionnement des moteurs de recherche faisant également partie intégrante des compétences requises pour exercer la profession de veilleur, il est certain que j’avais un certain avantage sur les rédacteurs pourvus exclusivement d’un bagage littéraire.

J’avais de prime abord une approche assez instinctive du SEO, puisque certaines contraintes recoupent plus ou moins mes habitudes de rédaction : champs sémantiques élargis, répétitions d’éléments clés, annonce du plan, récapitulation finale, multiplication des liens (c’est tout de même l’essence du web et bien pratique pour éviter de devoir réécrire ce qui a déjà fait l’objet d’un traitement qualitatif).
Au fur et à mesure que ma pratique de la rédaction web s’est affinée, et que les contrats se sont succédé, j’ai pu constater que l’instinctif ne suffisait plus et que certains clients avaient établi des grilles chiffrées indiquant les mots et expressions à répéter, le nombre d’occurrences, leur répartition par éléments du texte (titraille, corps du texte…), etc.

L’optimisation pour les moteurs de recherche : mi-inné, mi-acquis

Dans certains cas, les fiches d’optimisation SEO étaient de très bonne qualité et fournissaient une matrice adaptée à la rédaction de contenus compatibles avec les attentes des lecteurs ET des machines.
Mais un client m’a une fois fourni des fiches sensées m’imposer d’utiliser au moins une trentaine de mots et d’expression à cinq reprises minimum dans un texte d’environ 3.000 signes, soit 500 mots. Cela revient à considérer qu’environ 1/4 des mots utilisés dans le texte devaient être des mots clés.

Accumulation de mots clés Vs Agrément de lecture

Accumulation de mots clés Vs Agrément de lecture

Tout rédacteur intellectuellement honnête, et toute personne sachant écrire un tant soit peu français, le sait pertinemment : ce n’est pas possible. Une telle demande s’apparente pour moi aux méthodes des premières heures du référencement, lorsque certaines pages étaient remplies de mots clés en blanc sur blanc pour que seuls les robots des moteurs puissent les lire. Les algorithmes des moteurs ayant évolué, cette pratique n’est à l’heure actuelle, à ma connaissance, plus en vogue, mais les attentes de certains clients m’amènent à considérer qu’il s’agirait de la seule méthode pour leur donner satisfaction.

Confronté à des demandes de ce type, je suis contraint de séparer moi-même le bon grain de l’ivraie pour ramener les contraintes SEO à un niveau compatible avec la rédaction d’un texte lisible.

Bien écrire pour être bien référencé, une utopie ?

C’est donc avec une immense satisfaction, et pas mal d’impatience, que j’ai pris connaissance d’une récente annonce faite par Google à propos de son programme d’intelligence artificielle, baptisé RankBrain, qui devrait un jour être en mesure d’analyser la pertinence d’un texte en adoptant du point de vue du lecteur lambda. Cela amoindrirait à coup sûr le poids des aspects techniques (balises, backlink, etc) et sémantiques (répétitions, redondances, etc) de la création de contenus.

De l'importance du pied comme outil de mesure

De l’importance du pied comme outil de mesure

Je me prends ainsi parfois à rêver d’un temps où la qualité, et donc la visibilité, d’un contenu ne seront évaluées qu’à l’aune de l’information, du style, du rythme, du vocabulaire et de l’humour déployés par l’auteur. Peut-être même, soyons fous, que RankBrain, en mettant en avant les « meilleures » contributions, permettra à l’humanité connectée de renouer avec la littérature dans le sens classique du terme. J’attends avec une impatience teintée d’incrédulité le jour où les métaphores, les citations, les apartés et pieds deviendront (à nouveau ?) des critères pris en compte pour évaluer et hiérarchiser la pertinence et la qualité d’un contenu rédactionnel.

Mais comme je suis tout de même un professionnel soucieux de la visibilité immédiate de son travail, dans le doute, je vais continuer à appliquer les méthodes de rédaction et de SEO habituelles.

Ce texte de 736 mots contient ainsi :

  • un titre court et accrocheur ;
  • 6 fois SEO (dont 1 fois dans le titre et 2 fois en gras) ;
  • 8 fois rédaction (dont 1 fois en gras + 4 fois rédacteur & 2 fois rédactionnel) ;
  • 5 fois optimisation, dont une en gras et <h2> ;
  • 3 fois référencement (+ 1 fois référencé en gras et <h2>) ;
  • deux intertitres balisés <h2></h2> ;
  • 12 liens ;
  • une astuce grossière d’optimisation pour rajouter des occurrences de mots clés.

 

Le #Content Marketing pour les nuls

Le Blog Artwhere.be propose une traduction d’un article anglais expliquant de façon assez simple les principes et les usages du Content Marketing, ou Marketing de Contenu, qui vise à attirer ses futurs clients sur son site sans tomber dans les travers de la publicité, ou pire, de la réclame.

Content Marketing

Source : 7 manières d’insérer le Content Marketing dans vos médias sociaux ‹ Blog ArtWhere

La veille et l’analyse pour susciter l’innovation : une mise en pratique

Le graphique Hype Cycle for Emerging Technologies établi régulièrement le groupe de conseil en technologie Gartner recense les technologies émergentes, leurs degrés de maturité et l’échéance à laquelle les entreprises et le grand public peuvent s’attendre à les voir devenir des réalités quotidiennes.

Gartner's Hype Cycle for Emerging Technologies

Gartner’s Hype Cycle for Emerging Technologies

Accéder à cette courbe dès sa publication n’est en rien une prouesse de veilleur, tant elle est rapidement et efficacement diffusée, au moins dans les cercles qui sont directement intéressés. Sa popularité est telle qu’on peut d’ailleurs légitimement s’interroger sur l’influence qu’elle exerce sur les phénomènes qu’elle est sensée exclusivement mettre en lumière.

Si j’associe la veille à la démarche qui suit, c’est que pour obtenir ce graphique, les équipes de Gartner ont nécessairement mis en place une veille poussée, couvrant à la fois les aspects technologiques et économiques, mais également l’évolution des usages des acheteurs et / ou des utilisateurs potentiels.

J’ai régulièrement mis en avant les bénéfices d’une veille pour susciter et accélérer l’innovation dans une entreprise, collectivité ou association. Cette courbe est un outil idéal pour détailler un moyen d’utiliser les résultats d’une veille comme point de départ d’une démarche créative et innovante.

Partons donc du principe que les résultats de la veille ont été traités et synthétisés de façon à obtenir une telle courbe, sachant que les outils de datavisualisation permettant d’obtenir un résultat de ce type sont désormais aussi faciles à trouver qu’à utiliser.

Comment utiliser ces informations pour formuler, valider ou invalider une orientation stratégique ?

Décomposer l’expérience client en étapes successives

La démarche compte plusieurs étapes.

La première consiste à décomposer son offre de produits ou de services en étapes distinctes et irréductibles, en prenant soin d’élargir l’analyse de son offre aux étapes qui précèdent, accompagnent et suivent le moment de sa « consommation ».

La diversité appelle des choix

La diversité appelle des choix

Pour un produit alimentaire, cela peut donc ressembler à ceci :

  • préparation de la liste des courses ;
  • oubli de la liste des courses sur la table de la cuisine ;
  • choix du point de vente ;
  • trajet jusqu’au point de vente ;
  • déambulation dans les rayons / travées ;
  • recherche du rayon / stand adéquat ;
  • consultation des offres analogues ou alternatives ;
  • choix ;
  • questionnement sur la quantité ad hoc ;
  • passage en caisse ;
  • retour au domicile ;
  • rangement et organisation des provisions ;
  • envie de consommer le produit ;
  • choix de l’accord avec un autre produit ;
  • préparation ;
  • service ;
  • consommation ;
  • commentaires plus ou moins désobligeants sur la pertinence du produit et de sa préparation ;
  • débarrassage, collecte et élimination des déchets (restes et emballages) ;
  • vaisselle ;
  • digestion.

Même si j’ai volontairement exagéré le détail, on peut tout de même considérer qu’une amélioration dans au moins une des étapes listées ci-dessus améliorera l’expérience du client et rendra le produit plus désirable à ses yeux. La diversité des tâches attachées à l’achat et à la consommation d’un produit aussi banal qu’un aliment montre également la diversité des cibles à considérer : celui / ceux qui réclament un produit (prescripteurs), ceux qui l’achètent (acheteurs), ceux qui le préparent (utilisateurs) et ceux qui le consomment (consommateurs). Même dans les ménages les plus traditionalistes, il y a fort à parier que les différentes catégories ne se recoupent pas complètement. La seconde étape consiste donc à lister toutes les parties impliquées dans l’achat, en utilisant pourquoi pas la technique des personas, qui est loin d’être idéale, mais qui peut cependant permettre de susciter des rapprochements intéressants.

Dans le cas qui nous intéresse, nous pourrions aboutir à ce résultat :

  • Enfants de 3 à 12 ans, prescripteurs et consommateurs : joueurs, insouciants, gourmands de sucrés et de produits standardisés, friands de publicité et d’audiovisuel (…) ;
  • Ados de 12 à 19 ans, prescripteurs, utilisateurs et consommateurs : sensibles au regard des autres, digital natives, soucieux de leur allure, tiraillés entre le régressif rappelant l’enfance, le transgressif de la rébellion adolescente et le passage à l’âge adulte, friands de jeux vidéos, de séries télés et de marques (…) ;
  • Adultes, prescripteurs, acheteurs, utilisateurs et consommateurs : soucieux du rapport qualité / prix, des apports nutritionnels, sensibles aux arguments de simplicité et de gains de temps, utilisateurs pragmatiques ou ludiques des nouvelles technologies (…) ;
  • Seniors, prescripteurs, acheteurs, utilisateurs et consommateurs : soucieux du rapport qualité / prix, utilisateurs pragmatiques ou ludiques des NTIC (…)

    Une famille : des prescripteurs, des acheteurs, des utilisateurs et des consommateurs...

    Une famille : des prescripteurs, des acheteurs, des utilisateurs et des consommateurs…

Tout parent sait par ailleurs qu’il n’est que rarement consommateur de l’intégralité des produits prescrits par des plus jeunes, remarque qui peux également s’appliquer aux prescriptions émanant des ascendants.

Confronter chaque binôme étape / cible aux technologies disponibles

L’étape suivante pourrait consister à étudier sur quelles étapes une modification de l’offre pourrait avoir un impact positif, mais il me semble qu’une telle démarche n’aboutirait qu’à limiter le champs d’investigation et ainsi à réduire les possibilités d’innovation.

Une fois ces deux listes établies, il s’agit de revenir aux résultats de la veille, en l’occurrence synthétisés sous forme d’une courbe.
Pour éviter de rater les prochaines évolutions, décidons d’étudier les technologies émergentes par ordre probable d’apparition effective sur le marché :

  • en quoi l’impression 3D peut-elle faciliter / améliorer l’expérience consistant à rédiger la liste de courses pour les adultes ? pour les senior ?
  • en quoi peut-elle résoudre le problème de l’oubli de la liste de courses pour les adultes ? les seniors ?
  • etc.

Pour chaque étape, chaque catégorie de cibles et chaque technologie émergente, il s’agit donc d’imaginer les applications possibles, envisageables et les bénéfices qui pourraient en être éventuellement tirées, à la fois pour l’entreprise et le consommateur.
Si le rapprochement de l’alimentaire, question concrète entre toutes, et de technologies émergentes peut sembler baroque, certaines innovations découlant d’une telle démarche existent déjà :

  • liste des courses + internet des objets = réfrigérateur répertoriant les produits achetés, consommés / périmés et qui génère une alerte pour signaler qu’il est temps de se réapprovisionner ;
  • envie de consommer + impression 3D = impression de pizzas pour astronautes et explorateurs de mars ;
  • choix de l’accord avec un autre produit + assistants personnel virtuels : services en ligne générant des recettes à partir de ce qui est disponible…

En abordant systématiquement tous les systèmes étapes / cibles / technologies, et en acceptant de laisser parler son imagination au risque de se ridiculiser, il est ainsi possible de détecter des pistes intéressantes. Il reste ensuite à décider si elles sont souhaitables, acceptables, rentables, à définir une stratégie pour atteindre l’objectif qui sous-tend l’innovation détectée et à la mettre en œuvre.

Et ça, c’est une autre histoire.

 

Le portage salarial sécurisé par une récente ordonnance

Ah ben ça, ça tombe bien alors 😉

Source : Le portage salarial sécurisé par une récente ordonnance

#Contenu ou pub : choisis ton camp, camarade !

Le magazine digital de l’innovation frenchweb.fr a publié un intéressant article intitulé Contenu marketing ou native advertising : lequel a le meilleur ROI?, dans lequel Jeanne Dusseil précise ce que sont le content marketing et le native advertising et en explicite les atouts et les handicaps.
En tant que spécialiste de la création de contenu et de la communication écrite, j’ai une idée assez précise de ce qu’est le content marketing, et c’est donc avant tout au native advertising que je me suis intéressé, histoire de comprendre précisément ce dont il s’agit.

Capture d'écran du site frenchweb.fr

Capture d’écran du site frenchweb.fr

Pour faire simple, et au risque de passer à côté de quelques spécificités importantes, il s’agit d’un nouveau type de publicité ciblée.
La pub en ligne « traditionnelle » utilise des données telles que celles fournies par vos cookies et votre historique de navigation pour vous proposer des contenus proches de vos centres d’intérêts, réels ou supposés. La publicité « native » ajoute une couche de prise en compte en temps réel du contenu que vous consultez afin de diffuser des messages publicitaires plus ou moins liés au sujet qui retient votre attention. Outre un meilleur ciblage, le dispositif est sensé limiter l’aspect intrusif des messages publicitaires et a pour principal objectif de camoufler la pub sous la forme de liens connexes au contenu consulté. Le qualificatif « natif » découle donc du fait que le message publicitaire doit apparaître comme un contenu primitivement mis en ligne par les responsables éditoriaux du site. L’autre caractère innovant du native advertising réside dans son mode de commercialisation, sous la forme d’enchères en temps réel (real-time bidding) dans le cadre desquels les annonceurs « s’affrontent » pour être visibles au meilleur moment par leurs cibles.

Camoufler la pub pour la rendre plus acceptable

Une fois le native advertising démystifié, le match se résume donc à la confrontation contenu / pub. Avant d’entamer l’analyse des résultats de l’étude citée dans cet article, je rappelle que l’objectif final de la production de contenus est le même que celui de la publicité : vendre des produits et/ ou des services.

Se cacher ou se montrer ?

Se cacher ou se montrer ?

Les ressorts sur lesquels le commanditaire souhaite jouer pour atteindre son objectif sont en revanche assez différents. L’utilisateur de la méthode du content marketing souhaite susciter l’intérêt du lecteur et le transformer en prescripteur via le partage des contenus diffusés, notamment via les médias sociaux. Les contenus ont pour rôle de construire une image valorisante pour la marque ou l’organisation au service de laquelle ils sont émis. Comme tous les professionnels de la communication le savent, la construction d’une image de marque est un processus long et dont les résultats sont particulièrement fragiles : une erreur, et des mois / années de travail peuvent être anéantis en quelques heures. D’après l’étude présentée, les principaux avantages de la production de contenu marketing par rapport à la publicité native, c’est la capacité du premier à améliorer le référencement naturel des sites qui les hébergent et les émettent, pour un coût bien moindre. Si la visibilité du site se trouve généralement améliorée, c’est que les contenus sont bien plus régulièrement repris et diffusés à grande échelle, ce que les internautes n’ont pas l’habitude de faire pour ce qu’ils identifient comme de la pub. En outre, les moteurs de recherche, Google en tête, ont tendance à pénaliser les contenus publicitaires et à privilégier les contenus « qualitatifs », avec l’objectif de fournir à leurs utilisateurs les résultats les plus pertinents.

Vendre ou préparer la vente

Billet_de_confiance_de_5sols

La confiance, fruit de la création de contenus intelligents

Au final, il apparaît donc que le native advertising est une stratégie à court terme, qui peut être utile pour mettre en avant rapidement un produit auprès d’une cible précise et limitée. La pratique étant onéreuse, elle s’adresse principalement aux grands annonceurs voulant vendre un produit / service.
Le content marketing demande théoriquement moins de moyens financiers, mais plus de temps, ce dont il fait tenir compte. Ses bénéfices sont moins immédiats, mais permettent d’instaurer un climat de confiance et de dialogue avec ses prospects. Pour arriver à cela, il faut être bien conscient que le contenu ne doit pas être une autre forme de publicité déguisée. Le fond doit être factuel et aussi impartial que possible, les propos mesurés et le ton choisi avec soin.

La publicité doit vendre, le contenu doit créer un environnement propice à la vente. Utiliser une technique en se trompant d’objectif, c’est l’assurance de perdre son temps et son argent. Alors qu’études après études, les acheteurs affichent un dédain toujours plus marqué envers la publicité, l’alternative consistant à s’adresser au cerveau des lecteurs plutôt qu’à leur portefeuille est à la fois une question de valeur et de positionnement.

Dans un cas comme dans l’autre, le choix du support et du mode de communication dépend du triptyque objectifs / stratégie / cibles.
La réussite d’un tel projet passe également par la maîtrise des termes, des outils et des méthodes qui permettent d’en tirer profit. Si la création de contenus peut de prime abord sembler plus accessible que la création de publicités, avec les aspects graphiques et techniques qui s’y rattachent, il est donc utile de s’entourer dès la phase de définition des objectifs, afin d’éviter de passer à côté d’évidences qui peuvent échapper au professionnel pressé.

Pour permettre aux TPE, PME, artisans, indépendants et auto-entrepreneurs d’accéder à des services de qualité, nous préparons avec l’agence d’inbound marketing Novadeo et la consultante en veille digitale Fanny Loubaton un programme de formations fractionnées pour proposer à de (très) petites structures de courtes séances de travail communautaire. A chaque séance, une problématique sera explicitée pour avancer sur le chemin de la communication en ligne, puis les propositions formulées par chacun pour son propre projet pourront être analysées et améliorées de façon collégiale.

Présentation de l’outil de #veille TaDaweb par le Portail de l’IE

Le portail de l’IE propose une présentation très succincte de TadaWeb, arme absolue de la veille pour laquelle je propose d’ailleurs une formation intitulée Construire une veille avec TaDaweb. Je reviendrai plus longuement sur cet outil, parfois un peu difficile à prendre en main, mais finalement relativement simple une fois les règles de base acquises, et surtout, redoutablement efficace. www.tadaweb.com

Data : la particule élémentaire de l’information

J’ai participé le 04 février à la conférence La Révolution des données numériques organisée par la Fondation Internet Nouvelle Génération (Fing) et l’association Fréquence Ecoles. Mon objectif était double : en tant que chargé de projet de Fréquence Ecoles en charge du cursus Dataviz, il était important que je me familiarise avec les concepts et, surtout, avec les attentes formulées par les collectivités territoriales et les professionnels de la médiation culturelle et numérique. En tant que consultant et formateur en veille stratégique et communication écrite, il me semblait important d’accumuler de la matière pour nourrir ma réflexion, et mon offre, sur des sujets tels que le big data ou l’open data.

Simon Chignard et Charles Nepote ont donc présenté leurs approches devant un auditoire disparate : néophytes sceptiques, néophytes curieux, amateurs éclairés et enthousiastes, spécialistes impatients, etc. Les presque trois heures de causeries ont permis d’aborder la question sous différents angles, avec des exemples et des applications potentielles qui m’ont permis de mieux cerner les possibilités, et les limites, de l’approche « Data ».

La particule informationnelle élémentaire

particule elementairePour commencer, et c’est sans doute cette définition qui me permettra d’intégrer harmonieusement les savoirs accumulés dans mes offres, la Data est la particule élémentaire de l’information. Les données ne constituent pas des informations en tant que telles, mais elles sont la matière première d’informations très diverses. Elles permettent la construction d’informations utiles. Par exemple, un tableur compilant le montant des contrats remportés sur plusieurs années auprès de clients de différentes tailles et évoluant dans différents secteurs d’activités n’est pas une information. Par contre, un ratio ou une représentation graphique illustrant le poids relatif de tel secteur d’activité et l’évolution de la part du CA dans le temps est une information, puisqu’elle permet de prendre des décisions stratégiques (renforcer les efforts commerciaux ou au contraire tenter de rééquilibrer ses débouchés pour réduire l’exposition aux retournements conjoncturels). Le même tableur peut permettre de produire un graphique montrant le poids comparé des segments PME et ETI, pour, là encore, prendre des décisions.

Cette définition permet d’ores et déjà d’avancer deux principes fondamentaux : les data n’ont de valeur que par les informations qu’elles permettent de construire, et les informations qui en sont tirées dépendent directement de l’angle d’étude choisi (activité ou taille d’entreprise dans mon exemple) et de la variété des données collectées et saisies. L’angle choisi découle à son tour directement de la problématique que l’analyste souhaite adresser.

Comme je l’ai écrit précédemment, pour être utile, l’information doit circuler et être partagée. En conséquence de quoi il semble évident que la circulation des data doit également être la plus fluide possible pour potentialiser les chances d’en tirer des informations valorisables. Malheureusement, à l’instar de l’information en entreprise, la prise de conscience de la valeur potentielle des données s’accompagne généralement d’une volonté de les thésauriser et de les stocker là où personne d’autres que l’entreprise qui les détient ne pourra en tirer profit. Or, la valeur des données, l’information, ne surgit que du traitement qui leur est appliqué. Et la qualité de l’information est directement corrélée à l’exhaustivité des données rassemblées, lesquelles doivent donc être perpétuellement mises à Opendatajour, augmentées, etc. Si la majeure partie des activités des professionnels génère aujourd’hui des données (horaires, distances, coûts, valeurs…), c’est souvent en croisant des données hétérogènes, quand elles ne sont pas hétéroclites, que des informations peuvent générer une véritable rupture génératrice d’avantage concurrentiel et de valeur ajoutée. Or, une même structure ne dispose que rarement de l’intégralité des données qui pourraient lui être utiles. C’est donc une évidence que les entreprises ont tout intérêt à collecter les données, mais également à en partager certaines avec des structures qui peuvent en augmenter la valeur, valeur dont elles pourront à terme également bénéficier. C’est, à grand trait, le principe de l’open data, les données ouvertes et accessibles à tous. Bien sur, toutes les données de l’entreprise ne peuvent ainsi être mises à disposition de tout un chacun, parmi lesquels se glisseraient inévitablement concurrents, clients et partenaires prompts à en exploiter certaines au détriment de l’émetteur.

Données à partager, données à protéger

Il n’est ainsi pas question de mettre en libre accès un catalogue clients, des données financières ou comptables ou un listing relatif aux collaborateurs.
Il est par contre question de collecter et de partager en vue de valorisation des taux d’utilisation de divers équipements, des fréquences de déplacements, des relevés de consommation d’énergie, des périodes d’activités plus ou moins intenses… toutes données qui ne donnent pas d’éléments cruciaux à des observateurs extérieurs, mais qui peuvent être porteuses d’optimisation ou de diversification des pratiques.

données sécuriséesQue les informations valorisables qui peuvent être extraites de ces données soient ou non construites et exploitées par l’entreprise qui les a collectées, les améliorations qui en découleront lui bénéficieront au final, puisqu’une réponse sera spécifiquement étudiée pour répondre à ses besoins. Si l’entreprise qui collecte les données souhaite se donner les moyens d’en tirer elle-même des bénéfices, elle devra mobiliser des investissements et des moyens technologiques et humains, pour des résultats aléatoires. Si elle laisse un tiers effectuer le travail, elle dégagera certes un avantage concurrentiel moindre, mais elle aura également économisé les coûts de développement de la solution innovante dont elle bénéficiera tout de même.

Pour résumer, certaines données doivent être protégées si l’entreprise prévoit d’en faire quelque chose elle-même, mais elles devraient être mises à disposition si ce n’est pas le cas.

Une démarche qui demande minutie, patience et imagination

Si une entreprise envisage de valoriser les données qu’elle produit quotidiennement, il apparaît qu’il y a quelques précautions à prendre pour faciliter leur exploitation future :

  • formaliser une terminologie facilitant l’identification de différents angles d’analyse ;
  • réaliser une collecte exhaustive et régulière des données ;
  • créer et renseigner autant de catégories de données que possible, pour faciliter le filtrage multi-critères ;
  • éviter les champs de saisie libre ;
  • choisir des formats (de fichiers informatiques) courants et compatibles entre eux ;
  • choisir des formats libres et ouverts ;
  • choisir des formats facilitant la manipulation (tri, croisement, hiérarchisation) et l’illustration graphique des données ;
  • réaliser des sauvegardes régulières en adoptant une nomenclature dédiée ;
  • vérifier régulièrement que des données nouvellement rendues publiques ne font pas émerger une nouvelle information valorisable ;
  • laisser libre cours à son imagination.

Avec une telle définition, l’open data semble porteur de nombreuses innovations et d’améliorations qui pourraient profiter au plus grand nombre, entreprises ou particuliers. Mais ce sont, comme toujours, la curiosité, l’ingéniosité, la motivation et le travail de ceux qui les transformeront qui permettront d’en tirer réellement profit.

C’est ce qui différencie l’open data du big data, du moins si j’ai bien compris les concepts et les usages qui en découlent.

Big (Data) Brother is profiling you

Le big data repose sur le même principe fondamental : extraire une information de données. Le terme big s’applique ici à la fois aux volumes et à la variété des données collectées et traitées. L’objectif est toutefois sensiblement différent, puisqu’il ne s’agit plus uniquement de construire des informations qui pourront permettre une prise de décision éclairée, mais de prévoir les comportements de personnes ou de groupes de personnes.

CC by Paterm

CC by Paterm

Le rapprochement d’un important volume de données hétéroclites permettrait en effet de réaliser des prédictions de comportements, et ainsi de peser en faveur du déclenchement de l’acte d’achat au moment où celui-ci est le plus susceptible d’intervenir.
Ainsi présentés, le principe et les buts d’une approche big data s’apparentent à un déterminisme commercial à la fois effrayant et peu attirant, du moins en tant que sujet potentiel de telles pratiques.
De l’aveu même de certains professionnels, que j’ai promis de ne pas nommer ici, il semblerait, qu’au moins à l’heure actuelle, les coûts d’acquisition et de traitement des données permettant ainsi de traquer et prévoir les habitudes des clients visés soient supérieurs au panier moyen qu’ils permettent de vendre. Le bénéfice semble donc assez limité au stade de développement des technologies où nous en sommes.
Limité pour les clients des fournisseurs de solutions big data, bien sûr.

Il n’en reste pas moins qu’il convient de s’interroger sur les applications connexes du big data. Est-il possible de détourner les technologies de profilage du consommateur (car c’est bien ce dont il s’agit) au profit de professionnels BtoB ou BtoC visant un public restreint ? Si j’ai bien compris les principes sur lesquels reposent le big data, mais je suis loin d’être un data scientist, la réponse est NON. Les méthodes reposent sur le traitement de très importantes masses de données, qui ne sont évidemment disponibles que pour les productions grand public distribuées via de multiples canaux identifiés et normés. Les entreprises n’étant pas monolithiques, il semble difficile de les profiler efficacement. Et les professionnels qui vendent une petite quantité de produits à quelques catégories de clients ne sauraient non plus en tirer profit, ou en tout cas pas à des coûts susceptibles de rendre l’opération intéressante.

Big Data ? Big Business !

Est-il alors possible d’utiliser les méthodes et technologies du big data pour développer une analyse prédictive d’informations éparses ?
Manifestement, pas encore. Comme Simon Chignard l’a en effet précisé, le big data permettrait éventuellement de répondre à la question du quoi ? mais en aucun cas au pourquoi ?
Ainsi, si l’analyse et le recoupement de grandes masses de données semblent pouvoir permettre d’établir une prédiction plus ou moins juste d’un état, il est impossible de décrire les scénarios à privilégier pour atteindre ou éviter l’état décrit. Ce qui est somme toute assez logique et plutôt rassurant. Concrètement, il semble donc possible de prévoir une demande à un moment donné, mais il est impossible de prévoir le cheminement qui permettra d’être la première entreprise à bénéficier de l’émergence d’un nouveau besoin.
L’approche d’un marché étant notamment régi chez l’entrepreneur « moyen » par l’intuition, le big data aurait donc comme application BtoC la possibilité de confirmer / infirmer / étayer une intuition. Avec évidemment la marge d’erreur de toutes machines mesurant les comportements humains. Et à un coût qui me semble (à l’heure actuelle) incompatible avec les moyens de l’écrasante majorité des entreprises françaises.

Jusqu’à plus amples précisions et sans plus en saisir les ressorts technologiques, je resterai donc dubitatif, bien que curieux, vis à vis des promesses du big data pour les entreprises à taille humaine.
A l’inverse de l’open data, qui me semble propre à générer de réels avancées en termes de rationalisation, d’optimisation et d’innovation.

%d blogueurs aiment cette page :