Ordinateur tout-terrain : comment le choisir ?
Aucun ordinateur classique ne sortira sans dommage d’une chute d’un mètre ou d’une simple projection de liquide sur son clavier. Une vulnérabilité qui ne permet pas d’envisager leur utilisation quotidienne à l’extérieur. Une bonne occasion de rappeler qu’il existe des matériels informatiques tout-terrain.
Semi-durcis à ultra-durcis
Les qualités de résistance attendues ne sont pas les mêmes pour un chef de chantier travaillant sur de grands ouvrages que pour un magasinier gérant un entrepôt. C’est pourquoi une large gamme de matériels multimédia (ordinateurs, tablettes, smartphones…) est proposée sur le marché. Certains sont dits semi-durcis et sont conçus pour résister à la poussière, à la projection de liquide et aux chutes de moins d’un mètre. D’autres, qualifiés de durcis voire d’ultra-durcis, supportent une brève immersion, des températures extrêmes (-30°C à +70°C en fonctionnement et -50°C à +85°C en stockage), la corrosion saline, ou encore un écrasement.
Des coques en alliage
Pour résister aux chocs et à l’écrasement, ces machines sont souvent protégées par une coque en alliage de magnésium, elle-même préservée, notamment sur les coins, par des tampons de caoutchouc. En outre, afin d’assurer leur étanchéité et leur résistance aux températures extrêmes, ces ordinateurs ne sont pas équipés de ventilateurs. Le contrôle de la température du processeur et des autres composants internes est donc assuré par un système de régulation spécifique. Quant à certains composants fragiles, les disques durs, par exemple, ils sont isolés par des « amortisseurs » de polymères et reliés les uns aux autres, non pas à l’aide d’une carte rigide, mais d’un jeu de connexions souples.
Des normes de résistance
Il existe plusieurs normes que les fabricants doivent respecter pour faire certifier leurs appareils. La plus connue est la norme IP (Ingress Protection) qui a pour objet de valider les capacités de résistance à l’infiltration. La norme IP est composée de deux chiffres. Le premier (0 à 6) mesure la résistance à l’infiltration de corps étrangers solides en tenant compte de leur taille (de plus de 50 mm à la poussière). Le second (0 à 9) analyse la résistance aux liquides (des projections de gouttes d’eau à un nettoyage haute pression). Généralement, les ordinateurs durcis les mieux protégés sont certifiés IP66 (résistance à la poussière et à la projection de jets d’eau puissants). Les smartphones et les tablettes durcis, plus faciles à protéger que les ordinateurs, sont souvent certifiés IP68 (résistance à la poussière et étanchéité lors d’une immersion à plus d’un mètre de profondeur).
En plus de la norme IP, nombre de ces appareils sont également certifiés MIL-STD-810. Cette norme, mise en place par le département de la défense des États-Unis, doit être respectée par les fabricants qui souhaitent vendre leurs appareils à l’armée américaine et à ses agences. Elle mesure notamment la résistance aux chocs, aux vibrations, aux températures extrêmes, à l’humidité, à l’air salin ou encore aux radiations solaires. Enfin, certains ordinateurs sont compatibles MIL-STD-461. Ce qui signifie que leur fonctionnement n’est pas affecté lorsqu’ils sont exposés à des ondes électromagnétiques.
Des fonctionnalités adaptées
Ces matériels ne sont pas seulement plus résistants, ils sont aussi conçus pour fonctionner dans des environnements difficiles. Le plus souvent, leurs claviers sont rétroéclairés et leurs écrans très lumineux et contrastés afin d’être lisibles même en plein soleil. Certains écrans tactiles sont, en outre, conçus pour rester précis sous la pluie ou lorsqu’on les utilise avec des gants. En termes d’autonomie, ces machines sont également très performantes (plus de 8h d’autonomie) et certaines d’entre elles s’appuient sur plusieurs batteries, ce qui permet de les remplacer sans devoir éteindre l’ordinateur. Par ailleurs, dans la mesure où ces appareils sont destinés à être utilisés aussi bien dans un bureau que sur un bateau, un chantier, au sommet d’une montagne ou en plein désert, ils sont généralement dotés non seulement d’une puce GPS (système de géolocalisation), mais aussi de différentes antennes leur permettant de s’appuyer sur un large choix de réseaux pour communiquer (Wi-Fi, téléphonique, satellitaire…). Le fait qu’ils soient nomades et ainsi davantage exposés au vol que les machines classiques conduit les fabricants à les doter, par défaut ou en option, de systèmes de sécurité (encryptage des données, système de traçage de l’appareil, prises pour câblage anti-vol, lecteur d’empreintes digitales ou de cartes d’identification…) et de disques durs facilement démontables.
Enfin, même si cela peut sembler anecdotique, ces portables disposent, le plus souvent, d’une poignée de transport très pratique scellée à la coque.
Des accessoires spécifiques
Parmi les accessoires spécifiques, on trouve notamment des stations d’accueil pour utiliser le portable durci au bureau, des chargeurs de batteries portables et des adaptateurs permettant de se relier au plus grand nombre possible de sources d’énergie. Mais également des supports, souvent antichoc, conçus pour fixer le portable dans un véhicule et ainsi pouvoir l’utiliser même en parcourant des pistes non carrossées ou sur une mer démontée. Des souris et autres stylets tout-terrain font également partie des accessoires le plus souvent associés à ce type de machine.
Combien ça coûte ?
Il existe de nombreux fabricants proposant des ordinateurs, des tablettes et des smartphones durcis. En fonction de ses performances et de sa robustesse, le prix d’un ordinateur portable durci, hors accessoires, peut varier de 1 000 € à plus de 10 000 €, celui d’un smartphone ou d’une tablette de 200 € à 1 000 €.
Digitalisation : où en sont les TPE-PME ?
Publié pour la 5e année consécutive par la Direction générale des entreprises, le Baromètre France Num fait le point sur l’usage du numérique par les petites entreprises, ses effets de levier et les freins qui ralentissent son adoption. Retour sur les principaux enseignements de ce sondage.
Une perception positive du numérique
Comme chaque année, la Direction générale des entreprises et le Crédoc publient le . Un sondage au cours duquel plus de 11 000 dirigeants d’entreprises de moins de 250 salariés sont interrogés sur la place des outils digitaux dans le fonctionnement de leur structure et, plus largement, sur leur perception du numérique.
Une meilleure communication avec les clients
À la question « le numérique représente-t-il un bénéfice réel pour votre entreprise ? », 78 % des chefs d’entreprise interrogés ont répondu par l’affirmative alors qu’ils étaient 79 % à le faire en 2024 et 76 % en 2023.
Dans le détail, 77 % des dirigeants déclarent que les actions de digitalisation mises en œuvre leur ont permis de faciliter la communication avec leurs clients et avec leurs collaborateurs (60 %). 40 % des chefs d’entreprise, déclarent, également, que grâce au numérique leur chiffre d’affaires a augmenté (35 % évoquent une hausse de leurs bénéfices). Enfin, 78 % rapportent que ces actions de digitalisation leur ont facilité l’externalisation de certaines fonctions telles que la comptabilité, la paye et la communication.
Il faut également noter une forte montée de l’inquiétude face aux cyberattaques. La proportion des dirigeants de TPE-PME exprimant des craintes en matière de cybersécurité représente désormais plus d’1 sur 2 (52 %) contre 49 % en 2024 et 44 % en 2021 !
À savoir :
face à ces menaces, 84 % des TPE-PME ont déployé des mesures de protection : 81 % disposent d’antivirus, 68 % de dispositifs de sauvegarde et 32 % de mécanismes d’authentification multi-facteurs. En outre, 48 % ont élevé leur niveau de protection des locaux et du matériel et 34 % ont conduit des campagnes de sensibilisation et de formation de leurs collaborateurs.
Les outils mis en place
Assurer sa présence sur internet demeure un des objectifs majeurs de la digitalisation des TPE-PME. 84 % des dirigeants d’entreprise déclarent ainsi disposer d’outils permettant d’être visibles en ligne. Le plus utilisé, et c’est une première, sont les réseaux sociaux (66 %), juste devant le site internet (65 %). 50 % déclarent également avoir inscrit leur entreprise sur un annuaire internet gratuit et 19 % sur un payant.
Pour ce qui est de vendre en ligne, 37 % des TPE-PME disposent d’une solution de vente en ligne et/ou de paiement en ligne. Un chiffre qui grimpe à 40 % pour les seules PME.
À noter :
si les réseaux sociaux sont de plus en plus utilisés par les TPE-PME, on note une baisse de leur fréquence d’utilisation. Ainsi, alors que 61 % des répondants déclaraient en 2023 recourir aux réseaux sociaux au moins une fois par jour ou par semaine pour promouvoir les produits de l’entreprise, ils ne sont plus que 46 % en 2025 à le faire.
Des solutions de gestion
La digitalisation ne se limite pas à assurer sa présence en ligne, elle couvre également le déploiement d’outils de gestion et de pilotage de l’entreprise. Leur adoption s’est, d’ailleurs, confirmée en 2025. Ce sondage nous apprend que le niveau d’équipement en logiciel de comptabilité atteint désormais 68 % et 69 % pour les logiciels de facturation. Les outils de paiement en ligne sont, quant à eux, dorénavant présents dans 26 % des entreprises interrogées.
On observe, par ailleurs, une tendance haussière avec les logiciels de gestion de commande et de suivi des livraisons (25 %, +1 point sur un an), les solutions d’achat et de gestion des stocks (25 %, +1 point) et les solutions conception 3D (9 %, +3 points). Quant aux messageries instantanées, elles sont utilisées par plus d’1 entreprise sur 2, et leur taux d’adoption a progressé de 2 points en un an, passant de 59 % à 61 %.
L’explosion de l’IA
Le nombre d’entreprises ayant adopté une solution d’intelligence artificielle est passé de 13 % en 2024 à 26 % en 2025. Un taux qui atteint 34 % dans les PME.
Sans surprise et pour le moment, ce niveau d’adoption est plus élevé dans le secteur du numérique (51 %), celui des services spécialisés (41 %) que dans l’agriculture (9 %) et l’agroalimentaire ou les transports (15 %).
Côté solutions, 22 % des TPE-PME utilisent ces IA pour générer du texte, du son ou des images (+12 points en un an), 14 % comme chatbot (+9 pts), 6 % pour analyser et classer des informations (+3 pts), 5 % pour automatiser des tâches (+2 pts) et 5 % pour réaliser des prévisions (+2 pts).
Quelles priorités pour les 2 prochaines années ?
S’équiper de matériel informatique plus récent, reste le projet le plus souvent cité par les chefs d’entreprise interrogés sur leurs priorités en matière de digitalisation.
À moyen terme, les dirigeants d’entreprise ayant des projets numériques déclarent, avant tout, souhaiter acquérir ou améliorer leurs solutions logicielles (28 %) et investir pour « upgrader » leurs équipements numériques (22 %). Ensuite, ils envisagent de développer leur présence en ligne (21 %), de renforcer leur cybersécurité (17 %) et d’intégrer une solution d’intelligence artificielle (17 %).
Question budget, 46 % des entreprises prévoient de consacrer, hors recrutement, plus de 1 000 € à ces projets et 14 % plus de 5 000 €.
Quelles alternatives à ChatGPT ?
Précurseur dans le monde des IA conversationnelles, ChatGPT d’OpenAI reste encore dominant dans les usages. Un leadership qui ne doit pas nous faire oublier que la concurrence existe et qu’elle est de qualité. Zoom sur trois de ses challengers.
Google Gemini, le numéro 2
Gemini, l’IA conversationnelle de Google, a été lancée en février 2024, soit un peu plus d’un an après ChatGPT. Elle compte encore 10 fois moins d’utilisateurs que le leader du marché, mais elle séduit de plus en plus de gens.
Traiter différents types de données
Gemini est réputé pour ses « capacités multimodales avancées ». Traduction : cette IA, contrairement à ChatGPT, a été conçue non pas pour se concentrer sur le texte, mais pour traiter simultanément des données appartenant à des formats différents : textes, images, fils, vidéos, codes informatiques. Cela lui permet d’offrir un traitement fluide et rapide à des contenus intégrant plusieurs formats. Cette qualité est très souvent mise en avant par les concepteurs de Gemini.
S’intégrer dans l’environnement Google
Autre intérêt de Gemini : il est intégré (fonctionnalité payante) dans la gamme de services déjà offerts par Google Workspace (suite bureautique, cloud, chat, moteur de recherche, webmail…). Les professionnels et les entreprises qui utilisent ces outils collaboratifs pourront donc les faire interagir plus facilement s’ils optent pour Gemini plutôt que pour l’une de ses concurrentes.
En outre, il faut aussi noter que cette IA (comme ChatGPT, Mistral ou Claude) est capable de générer du code dans de nombreux langages de programmation à partir de prompts ou de simples schémas ou diagrammes. Déboguer fait également partie de ses attributions.
Comment accéder à Gemini ?
Pour utiliser Gemini, il suffit de se rendre sur le site et de se connecter à son compte Google (ou d’en créer un). Il est également possible d’utiliser cette IA via une application éponyme (disponible sur Google Play et sur iOS).
Le français Mistral AI
Mistral AI a été créé en 2023 par Arthur Mensch, Guillaume Lampe et Timothée Lacroix, trois chercheurs ayant respectivement travaillé chez Google, Facebook AI et Meta. L’entreprise française à l’origine de l’IA générative Mistral Large était valorisée, après son dernier tour de table de septembre 2025, autour de 14 Md€.
Les produits de Mistral AI
Mistral AI développe des solutions d’IA générative (gratuites pour le grand public et payantes pour les professionnels). Certaines sont spécialisées (programmation, résolution de problèmes mathématiques...), d’autres sont polyvalentes. La plus connue est Mistral Large. À l’instar de ChatGPT, Mistral Large est capable de produire tout type de contenus, d’analyser de grands volumes de données afin de les traiter ou encore de coder (et de déboguer) dans plus de 80 langages de programmation.
Les points forts de Mistral Large
Contrairement à la plupart de ses concurrentes qui ne travaillent qu’en anglais (et donc traduisent les questions et les réponses dans la langue de l’utilisateur), Mistral Large est multilingue. Il fonctionne donc nativement en anglais, français, espagnol, allemand et italien, ce qui le rend plus efficace. En outre, il est réputé pour sa capacité en matière de codage et d’analyse de code, ce qui explique qu’il soit très utilisé par les développeurs. Il affiche également les sources des informations qu’il délivre, ce qui est très appréciable.
À quoi sert « Le Chat » de Mistral AI ?
Le Chat est l’ . C’est, en quelque sorte, l’interface grâce à laquelle il est possible d’interroger les principaux modèles d’IA développés par l’entreprise (Mistral Large, Mistral Small et Mistral Next).
Simple et convivial (il offre une interface vocale, par exemple), cet assistant conversationnel est accessible sur le web ou téléchargeable sous la forme d’une application mobile sur les plates-formes Android ou iOS. Une version destinée aux entreprises, « Le Chat Entreprise », optimisée pour le monde professionnel, a également été développée.
Le modèle Mistral Magistral
Contrairement à Mistral Large, Magistral n’est pas un « simple » modèle de langage. C’est un « modèle de raisonnement » capable non seulement de traiter des données, mais aussi d’avoir une réflexion complexe, autrement dit de tenir un raisonnement transparent, vérifiable et comparable à celui d’un être humain. C’est le premier modèle de raisonnement de Mistral AI.
Claude : une IA plus éthique
Au même titre que le français Mistral, Claude fait partie des IA conversationnelles qui se positionnent en tant que challenger de ChatGPT d’OpenAI. Créée par Anthropic, une start-up fondée par d’anciens membres d’OpenAI, Claude se veut plus sûre et plus éthique que ses concurrentes.
Une IA constitutionnelle
Selon ses concepteurs, Claude est une « IA constitutionnelle ». Autrement dit, elle s’appuie sur des règles éthiques pour réaliser son processus d’apprentissage afin d’éviter les dérives rencontrées, notamment, par ChatGPT (informations erronées, propos racistes et sexistes, reprise d’informations complotistes…). Être honnête, éviter les stéréotypes, ne fournir que des informations vérifiées, reconnaître les limites de ses connaissances ou encore respecter la vie privée font partie des principes « constitutionnels » que s’imposent Claude et qui lui permettent, selon ses concepteurs, d’être plus fiable.
Des points forts
Outre son approche éthique, Claude se distingue dans le monde des IA par sa capacité à analyser des textes de plus de 100 pages et à répondre, avec précision, aux questions portant sur ces derniers. Un atout précieux lorsque l’on travaille avec des documents numériques considérables. Ses utilisateurs louent également ses performances en matière de programmation, notamment dans le langage Python où elle a la réputation de fournir des lignes propres et efficaces.
Elle est également utilisée pour coder et déboguer des programmes dans d’autres langages informatiques. Autre particularité, Claude ne se contente pas de répondre aux questions qu’on lui pose. Lorsqu’elle le juge pertinent, elle suggère à son utilisateur de nouvelles pistes à explorer sur le sujet abordé et l’invite à lui poser de nouvelles questions au cas où il souhaiterait aller plus loin.
À noter, enfin, que si cette IA n’est pas capable de générer des images ou des graphiques, elle est capable de les analyser finement et rapidement.
Comment accéder à Claude ?
Pour utiliser Claude, il suffit de se connecter sur le ou directement sur pour y créer un compte. Une fois l’opération terminée, il ne reste plus qu’à l’interroger en ligne. Il est également possible d’utiliser Claude sur un smartphone via une application du même nom (disponible sur l’Apple Store et sur Google Play).
IA : où en sont les entreprises ?
10 % des entreprises implantées en France utilisaient au moins une technologie d’intelligence artificielle en 2024. Un chiffre en hausse de 4 points sur un an qui reste néanmoins plus faible que la moyenne européenne.
Annoncée comme la nouvelle révolution industrielle, l’intelligence artificielle (IA) s’implante peu à peu dans le fonctionnement des entreprises. Pour y voir plus clair, pour connaître leur niveau de maturité en termes d’intégration d’IA.
Un usage qui dépend de la taille des entreprises
Premier enseignement, 10 % des entreprises implantées en France employant au moins 10 salariés déclarent avoir utilisé, en 2024, au moins une technologie d’IA contre seulement 6 % en 2023. Sans surprise, plus l’entreprise est grande et plus l’usage de l’IA est élevé. On note ainsi qu’il est de 9 % pour les entreprises employant de 10 à 49 salariés, de 15 % pour les 50 et 250 et de 33 % pour celles disposant d’un effectif supérieur à 250 employés. « Les entreprises utilisant l’IA concentrent, en 2024, 49 % du chiffre d’affaires total du champ et 40 % de l’emploi total (contre respectivement 40 % et 31 % en 2023) », précise l’Insee soulignant au passage qu’un fossé technologique est en train de se creuser entre les plus petites structures et les plus grandes.
Les secteurs de la communication en première ligne
Côté secteur, l’information-communication, qui regroupe notamment l’édition (de logiciels mais aussi littéraire et musicale), les activités audiovisuelles, les services de télécommunications, les services informatiques et les activités liées à l’internet est, avec 42 % d’usage (+12 points sur un an), le plus en pointe sur l’IA, loin devant les activités spécialisées techniques et scientifiques (17 %) et les activités immobilières (11 %). A contrario, les entreprises de l’hébergement-restauration (5 %), du transport-entreposage (5 %) et de la construction, restent encore, très en retrait de ces nouvelles technologies.
Au-delà même du secteur, d’autres critères facilitent l’adoption des technologies IA. L’Insee relève ainsi que les entreprises qui appartiennent à un groupe international ont « 1,6 fois plus recours à l’IA que les autres entreprises (indépendantes et celles appartenant à un groupe de sociétés présentes uniquement sur le territoire français) ». L’analyse montre aussi « qu’à caractéristiques comparables, une plus forte présence d’ingénieurs et de cadres techniques accroît les chances qu’une entreprise adopte l’IA : les entreprises dont leur part dépasse 15 % ont ainsi 2,2 fois plus de chances de faire usage de l’IA que les autres ».
Le retard des entreprises françaises
À noter également, et ce n’est pas une bonne nouvelle, l’adoption de l’IA par les entreprises est plus faible en France (10 %) que dans le reste de l’Union européenne (13 %). Dans le détail, les entreprises françaises de 250 salariés et plus, pourtant les plus en pointe du pays (33 %), affichent un taux d’usage en retrait de 8 points par rapport aux autres entreprises européennes de même taille (41 %). Sur les 50-249 salariés, le différentiel est de 6 points et pour les 10-49, de 2 points.
Au classement européen, avec ses 10 % d’adoption des outils IA, la France occupe une modeste 17e place sur 27, à égalité avec la Grèce et très loin de l’Allemagne (20 %), de la Belgique (25 %) et du premier pays, le Danemark (28 %). Parmi les grands pays (en surface et en population) de l’Union, seules l’Italie (8 %) et la Pologne (6 %) font moins bien que la France.
Le marketing et la vente
En 2024, parmi les entreprises qui utilisent l’IA, 28 % le font dans le cadre des actions marketing ou de vente, en progression de 11 points en un an. « L’usage de l’IA pour les processus de production ou de services est également nettement plus courant en 2024, avec 27 % des entreprises concernées, soit 7 points de plus par rapport à 2023 », précise les auteurs de l’étude.
Quant à l’utilisation de l’IA pour les opérations de gestion et d’administration, elle a plus que doublé passant de 11 % en 2023 à 24 % en 2024. « L’usage de l’IA pour la logistique suit la même tendance, bien qu’il reste le moins fréquent (3 % en 2023 à 6 % en 2024) », ajoute l’Insee.
Enfin, l’intégration des technologies IA par les entreprises françaises procède, très majoritairement (69 %), de l’achat d’un logiciel prêt à l’emploi (autonome ou intégré dans un logiciel existant). Plus rarement, elles acquièrent ces technologies en passant par un prestataire (29 %), en utilisant un logiciel open source (24 %), en le développant en interne (23 %) ou en modifiant un logiciel acheté (14 %).
Recourir aux satellites pour se connecter à internet
Il existe encore de nombreuses agglomérations dans lesquelles l’accès à l’internet haut débit reste difficile voire impossible. En raison des coûts d’investissement, la fibre n’y sera pas déployée avant des années, pas plus que le haut débit mobile. Une bonne raison de s’intéresser aux offres internet par satellite.
Encore des zones blanches
Depuis plusieurs années, l’Autorité de régulation des communications électroniques, des postes et de la distribution de la presse (l’Arcep) édite qui recense, dans le détail, les communes françaises dont les foyers sont raccordés ou raccordables à la fibre optique. Sans surprise, si les grandes agglomérations disposent d’une bonne couverture, de nombreuses zones rurales, principalement en Bretagne, dans le centre du pays et sur les sites montagneux sont encore classés en « blanc », c’est-à-dire sans aucun accès à la fibre. Des petites agglomérations qui ne bénéficient pas non plus d’accès à l’internet mobile haut débit, comme le confirme une autre carte interactive de l’Arcep, cette fois dédiée à la .
Se tourner vers le satellite
En attendant que les opérateurs déploient leurs solutions haut débit sur l’ensemble du territoire, les particuliers et les entreprises situés dans les zones dites blanches ou mal couvertes ont la possibilité de se rabattre sur une autre technologie : le satellite, pour accéder au réseau internet dans de bonnes conditions. D’un point de vue matériel, ils devront s’équiper d’une parabole, d’un routeur et de la connectique destinée à relier les deux équipements. Orientée correctement, la parabole permettra d’émettre vers le satellite et de recevoir les flux de données. Le débit dépendra de l’abonnement du fournisseur, tout en sachant qu’il restera inférieur à ceux proposés dans les offres fibre optique.
Un nombre limité d’opérateurs
Une poignée de fournisseurs d’accès à internet par satellite opèrent en France. Le plus connu, l’américain Starlink (propriété d’Elon Musk), offre des abonnements à partir de 40 € par mois (entre 100 et 200 Mb/s de débit maximum en réception). Pour les entreprises qui traitent des volumes de données élevés, des abonnements « entreprise » sont également proposés : 112 €/mois pour la consommation de 500 Go, 197 €/mois pour la consommation de 1 To de données et 367 € pour 2 To.
Un accès à un service client dédié et un tableau de bord spécifique permettant un suivi des consommations sont intégrés à ces offres. Au prix de l’abonnement, il faut ajouter 233 € pour l’achat du routeur et de l’antenne. Un coût qui grimpe à 1 191 € pour l’achat de l’antenne haute performance proposée dans le cadre des abonnements « entreprise ».
À noter :
des forfaits « itinérance » sont également proposés pour rester connecter dans un véhicule en mouvement. Il peut s’agir d’un véhicule routier, d’un bateau ou d’un avion.
Autre opérateur majeur, le français Nordnet, propriété d’Orange, propose 3 abonnements : Vital (100 Mb/s en réception) pour 35 € par mois, Idéal (150 Mb/s) à 45 € et Ultra (200 Mb/s) à 65 €. Ces offres, contrairement à celles de Starlink, comprennent la téléphonie fixe, mobile (Idéal et Ultra) et l’accès aux chaînes de télévision (Ultra). 300 € sont également réclamés pour le matériel.
Un abonnement « pro », offrant une vitesse de débit allant jusqu’à 200 Mb/s et un volume de données mensuel de 500 Go, est également proposée contre 99 € par mois.
À côté de ces deux grands fournisseurs, on peut également signaler les offres de l’allemand SkyDSL (à partir de 20 € par mois, auxquels s’ajoute la location du matériel de 5 à 10 € mensuels) et du britannique OuiSat (de 12 à 80 € par mois en fonction du débit : de 1 Mb/s à 40 Mb/s + 330 à 450 € pour le matériel).
Mots de passe : comment les choisir et les gérer ?
Verrous de sécurité des systèmes informatiques de nombreuses entreprises, les mots de passe doivent être composés avec soin et régulièrement changés.
En raison de sa simplicité et de son faible coût, le mot de passe reste la technique d’identification la plus utilisée par les entreprises, notamment les plus petites. Or, ce système, s’il n’est pas administré avec rigueur, offre un faible niveau de sécurité. Une bonne occasion de rappeler quelques principes à respecter pour créer et administrer des mots de passe solides dans l’entreprise.
Concevoir des mots de passe complexes
Pour l’Agence nationale de la sécurité des systèmes d’information (Anssi), un bon mot de passe doit être composé d’au moins 12 caractères de type différent (lettres, chiffres, caractères spéciaux, majuscules, minuscules). Bien entendu, pour être impossible à deviner, la chaîne de signes ainsi formée ne doit pas avoir de lien avec la vie privée de son utilisateur (date de naissance, noms des enfants…) et ne doit pas être présente dans un dictionnaire (autrement dit, elle ne doit avoir aucun sens).
Afin de parvenir à créer un tel mot de passe et à s’en souvenir, l’Anssi préconise deux méthodes. La méthode phonétique « J’ai acheté 5 CD’s pour cent euros cet après-midi » : ght5CDs%€7am, et la méthode des premières lettres : « Les 12 salopards et César et Rosalie sont mes deux films préférés » : L12seCeRsmdfp.
La Cnil propose un générateur de mot de passe basé sur la technique de la première lettre.
Bannir les mots de passe uniques
Même si c’est pratique et plus simple, il est dangereux d’utiliser le même mot de passe pour administrer plusieurs comptes. S’il venait à être découvert, toutes les applications qu’il permet d’ouvrir seraient alors compromises. A minima, l’Anssi conseille de choisir un mot de passe spécifique au moins pour les services les plus sensibles (messagerie professionnelle, accès aux réseaux de l’entreprise, services bancaires en ligne…). Quant aux systèmes de mémorisation des mots de passe présents notamment sur les navigateurs internet, l’agence en déconseille l’usage qu’elle considère encore peu sécurisés. Bien entendu, le recours au célèbre « Post-it » pense-bête collé sur le bureau ou le coin de l’écran de l’ordinateur est à proscrire.
Changer régulièrement de mot de passe
Aussi fort soit-il, un mot de passe n’est jamais incassable. Dès lors, il convient de le changer régulièrement pour éviter qu’un hacker qui serait parvenu à le découvrir sans que personne s’en aperçoive continue à accéder au réseau de l’entreprise ou à certaines de ses applications. Il faut ici trouver un compromis entre le confort des utilisateurs et la nécessaire sécurité de l’entreprise. En fonction du caractère sensible des accès, la durée de validité d’un mot de passe pourra ainsi varier de 3 mois à 1 an.
Instaurer des règles communes
La gestion des mots de passe ne doit pas peser sur les seuls collaborateurs, mais doit s’inscrire dans une politique de sécurité globale. Ainsi, les règles de choix des mots de passe (longueur du mot de passe, type de signes utilisables pour le composer…) comme leur durée de vie doivent être les mêmes pour tout le monde. Pour être acceptée et suivie et ne pas être considérée comme des contraintes inutiles et chronophages, la mise en place de ces règles doit s’accompagner de plan de formation et de communication. L’idée est ici de permettre à chacun de mesurer les enjeux de la sécurité informatique en termes de risque. Cette phase est essentielle pour que la sécurité devienne une véritable culture partagée par l’ensemble des collaborateurs. Idéalement, des réunions d’information pourront être organisées pour sensibiliser l’ensemble des collaborateurs sur l’intérêt d’assurer la sécurité des données de l’entreprise, mais également afin de partager les expériences de chacun et ainsi élaborer des solutions à la fois efficaces et consensuelles.
Effectuer un suivi
La sécurité des systèmes informatiques doit être administrée de manière centralisée comme tous les autres sujets à fort enjeu de l’entreprise. Les personnes qui en assument la charge, outre de définir les règles de création et de gestion des mots de passe, devront aussi veiller à leur application (mise en place de systèmes automatiques imposant le changement des mots de passe après un certain délai, vérification de la confidentialité des mots de passe, désactivation des mots de passe des anciens salariés…).
S’appuyer sur les gestionnaires de mots de passe
Un gestionnaire de mots de passe est un logiciel administrant une base de données sécurisée. Il a pour principale mission de stocker vos identifiants et tous les mots de passe associés et de vous permettre de vous connecter automatiquement sur chacun des sites sécurisés auxquels vous êtes abonné. Ces programmes peuvent être présents sur l’espace mémoire d’un ordinateur, d’un smartphone ou d’une tablette, mais également en ligne (cloud), ce qui présente l’avantage d’en permettre l’accès à partir de n’importe quelle machine.
Les utiliser permet de n’avoir plus qu’un mot de passe à retenir : celui qui permet d’accéder au gestionnaire de mot de passe.
Ces outils peuvent s’intégrer dans la politique de gestion des mots de passe de l’entreprise. Mais dans ce cas, il revient aux personnes en charge de ce dossier de sélectionner l’outil qui devra être utilisé par l’entreprise dans le cadre d’un abonnement global, sans quoi chaque collaborateur risque de faire son propre choix.
Il existe des dizaines de gestionnaires de mots de passe. Le plus souvent, ces outils sont téléchargeables sur le site de leur éditeur sur les plates-formes proposant des utilitaires pour ordinateurs (Clubic, 01Net, Comment ça marche ?...) et pour smartphones (Apple Store, Google Play…). Les plus connus sont Dashlane, LastPass, NordPass et KeePass. Les 3 premiers sont payants (du moins en version non limitée – il faut compter entre 30 et 50 € par an) et le dernier est gratuit. KeePass est, en effet, un logiciel open source (mis à jour par une communauté d’informaticiens très active) qui, en outre, présente l’avantage d’être certifié par l’Agence nationale de la sécurité des systèmes d’information (Anssi). Seul regret, KeePass souffre d’une interface très rustique comme beaucoup de logiciels open source.
IA : par où commencer ?
Webinaires, guides, diagnostics, aides financières… panorama des ressources publiques pour les entreprises qui souhaitent se lancer dans l’intelligence artificielle.
Si aucune entreprise ne doute de la nécessité d’intégrer l’intelligence artificielle (IA) dans ses produits et services ou dans ses process de fonctionnement, beaucoup ignorent par où commencer. Une bonne raison de dresser un premier inventaire des ressources mises à disposition par les principaux acteurs publics.
Des formations et des informations
Un grand nombre de formations en ligne gratuites sont disponibles sur internet. Certaines prennent la forme de webinaires, de tutoriels, de cours classiques en présentiel, de Moocs, d’enregistrements de tables rondes ou d’interventions de spécialistes. Les plus courtes ne dépassent pas 10 minutes et les plus longues, 3 semaines à raison de 5h hebdomadaires.
Pour s’initier
Ceux qui souhaitent mieux appréhender le fonctionnement des IA et les enjeux de leur déploiement pourront suivre le . Une formation en ligne de 16h, organisée par Bpifrance et dédiée aux professionnels qui permet de découvrir les concepts, les technologies et les implications éthiques et règlementaires de l’IA. Toujours proposé par Bpifrance, un , propose, de son côté (en moins d’une heure), d’identifier les points forts et les limites de l’usage des IA génératives dans les entreprises. À signaler, aussi, le de l’Inria qui, en 10 heures, revient sur le fonctionnement de l’intelligence artificielle.
Entrer dans la pratique
Ceux qui souhaitent aller plus loin trouveront des formations beaucoup plus concrètes sur, par exemple, le fonctionnement de ChatGPT et l’intérêt (mais aussi les risques) de l’utiliser dans les entreprises, sur d’autres outils IA qui permettent de doper sa productivité (Microsoft Copilot, Perplexity AI…). Ou encore des formations thématiques qui reviennent sur les apports de l’IA dans la formation, les fonctions de management, l’exportation ou la gestion des données internes de l’entreprise.
La et le recensent, chacun, une trentaine de ces formations sur leur portail.
Sur FranceNum, il est également possible de trouver des qui reviennent sur les cas d’usage les plus courants de l’IA dans les TPE-PME, les critères de choix des solutions proposées sur le marché, mais aussi les enjeux en matière de risques, de conformité et d’éthique.
À noter, également, la présence d’un petit sur la rédaction des prompts utilisés pour interroger les IA génératives.
Des aides et des accompagnements
Plusieurs aides régionales sont destinées à soutenir les entreprises désireuses de se lancer dans un projet IA. On en trouve, notamment, dans les régions Grand Est, Île-de-France, Pays de la Loire, Hauts-de-France et Provence-Alpes-Côte d’Azur.
Le site FranceNum en propose une ainsi que le site gouvernemental .
Il est également possible de se faire accompagner dans une démarche de lancement d’un projet IA. Sur ce point, FranceNum recense plus de , des experts publics ou privés qui ont pris l’engagement de proposer un « premier entretien gratuit » à leurs clients.
Autre dispositif d’accompagnement : qui, outre le volet formation, propose un diagnostic Data IA (10 jours) destiné à identifier des projets de création de valeur à partir des données de l’entreprise, ainsi qu’une mission de développement de la ou des solutions identifiées (10 jours). Une prise en charge partielle du coût de ces deux missions est proposée. Des missions qui sont fléchées en priorité, par Bpifrance, vers les PME et les ETI (de 10 à 2 000 salariés).
Cybersécurité : le bilan 2024
Le dernier baromètre du Cesin (Club des experts de la sécurité de l’information et du numérique) met en lumière une légère baisse des cyberattaques en 2024. Des attaques dont les conséquences restent, cependant, graves.
Réalisé par OpinionWay pour le compte du Cesin depuis 2015, le permet, chaque année, de dresser un bilan du combat que mènent les entreprises membres de ce club contre les cyberattaques. Des entreprises composées à 14 % de PME, à 39 % d’ETI et à 47 % de grandes entreprises.
Premier enseignement de cette enquête : 47 % des sondés ont subi au moins une cyberattaque réussie en 2024, c’est-à-dire une attaque qui n’a pas pu être arrêtée par les dispositifs de protection ou de prévention. Un chiffre en repli de 2 points sur un an. Pour rappel, ce taux était de 57 % en 2020, 54 % en 2021, 45 % en 2022 et 49 % en 2023. Exception faite de 2023, la tendance s’inscrit donc à la baisse depuis maintenant 5 ans.
Mais attention si le nombre d’attaques a reculé (pour 12 % des entreprises) ou s’est stabilisé (pour 69 %), pour 19 % de l’ensemble des entreprises interrogées (et 25 % des ETI), il a, au contraire, augmenté.
Toujours le phishing
Lorsqu’on les interroge sur le type d’attaques qu’elles ont subi, le phishing est cité par 60 % des entreprises victimes (comme l’an dernier). Pour rappel, le phishing (hameçonnage en français) est une technique qui permet à des pirates de se faire passer pour une banque, un fournisseur ou encore une institution publique auprès d’une entreprise ou d’un particulier afin d’obtenir des informations sensibles (coordonnées bancaires, mots de passe…) ou d’introduire un logiciel malveillant dans un système informatique. Basée sur l’usurpation de l’identité d’un tiers de confiance, cette technique d’attaque est difficile à contrer, ce qui explique son succès.
Les autres vecteurs d’attaques les plus souvent évoqués par les entreprises sont les vulnérabilités logicielles ou les défauts de configuration (47 %, +3 points) utilisés par les pirates, les attaques en déni de service (41 %, +7 points), les tentatives d’intrusions dans le réseau informatique de l’entreprise (39 %, +5 points) et la fameuse arnaque au président (36 %, +8 points) qui, comme son nom l’indique, consiste à se faire passer pour un dirigeant de la société afin de « forcer » un salarié de l’entreprise à mettre en œuvre un paiement qui sera détourné.
L’erreur humaine
Sur les causes des incidents constatés, le bilan dressé par les entreprises évolue. L’erreur de manipulation/de configuration ou la négligence d’un administrateur interne ou d’un salarié, l’an dernier classé en 4e place, recule à la 6e place (22 %, -11 points), signe que des efforts de formation ont été entrepris. La cyberattaque opportuniste (38 %, -1 point) reste la première cause de cyberattaque devant le défaut de configuration (33 %), les vulnérabilités résiduelles (29 %), les défauts de gestion de comptes (28 %) et le recours au Shadow IT (23 %, -12 points), c’est-à-dire l’utilisation par un salarié d’une application ou d’un matériel informatique souvent plus convivial ou performant que les solutions fournies mais non approuvées par la DSI. Là encore, on peut noter que des efforts de sensibilisation des salariés ont été menés l’an dernier pour limiter le recours des collaborateurs au Shadow IT.
Un impact sur le business plus de 6 fois sur 10
Si, dans 35 % des cas, une cyberattaque réussie n’a pas entraîné de perturbation, les autres fois, elle a eu un impact notable sur le business de l’entreprise victime. L’arrêt temporaire de la production, fréquent lors des attaques par rançongiciel (logiciel qui crypte les données informatiques, lesquelles ne pourront être déchiffrées qu’après le paiement d’une rançon), est cité par 23 % des répondants. Suivent l’impact médiatique (16 %), l’indisponibilité du site web (15 %), la compromission de données de l’entreprise (14 %) ou encore les pertes financières liées à des transactions frauduleuses (11 %).
Des dispositifs de protection plus performants
84 % des entreprises interrogées estiment que les solutions et services de sécurité proposés sur le marché sont adaptés à leurs besoins (contre 87 % en 2023).
Dans le détail, les EDR (Endpoint Detection & Response) (95 %) font partie des solutions jugées comme étant les plus efficaces avec les pare-feux (95 %), les dispositifs d’authentification multi-facteurs (95 %) et les VPN (90 %).
On note également que plus de la moitié des entreprises interrogées (62 %) déclarent avoir déjà mis en place un programme d’entraînement pour faire face à une cyber-crise. Pour rappel, le taux n’était que de 57 % en 2023 et de 51 % en 2022, signe que l’exercice prend désormais toute sa place dans les plans de reprise d’activité (PRA) établis par ces entreprises.
Enfin, le budget consacré à la cybersécurité a légèrement augmenté en 2024. 48 % (+3 points en un an) des entreprises y affectent plus de 5 % de l’ensemble du budget IT et 41 % (+2 points) moins de 5 %. Les 11 % (-6 points) restant affirment ne pas avoir encore pris de décision à ce sujet.
L’enquête révèle également que 72 % des entreprises interrogées ont souscrit une cyber-assurance (contre 70 % en 2023) et que 64 % d’entre elles envisagent de la renouveler, contre 18 % qui n’envisagent pas cette solution.
Gérer le BYOD dans l’entreprise
L’utilisation d’une solution informatique personnelle par un collaborateur dans son activité professionnelle doit être strictement encadrée.
Avec le télétravail et la hausse du niveau d’équipement informatique et électronique des particuliers, il arrive souvent qu’un salarié, avec ou sans l’accord de son employeur, utilise son propre matériel pour accomplir une tâche professionnelle. Un mélange des genres qui peut mettre en danger les données de l’entreprise. Explications.
Le BYOD ?
Le BYOD, pour « bring your own device » ou « apportez votre propre matériel », sur votre lieu de travail (ou l’utiliser chez vous en télétravail), est une pratique qui s’est fortement développée depuis que les smartphones, les ordinateurs portables et les tablettes se sont invités dans les foyers français. Un choix fait par ceux qui estiment (souvent à juste titre) que leur propre matériel est plus performant que celui fourni par l’entreprise ou qui souhaitent, via un seul et même outil, mener de front à la fois leurs activités professionnelles et leurs activités personnelles.
Or cette pratique n’est pas sans risque dans la mesure où elle met l’entreprise dans l’impossibilité d’assurer la protection de son réseau et des données qui y sont stockées. L’entreprise est ainsi exposée à la perte des données qu’abrite la machine de son collaborateur en cas de panne, de perte ou de vol, à des intrusions réalisées par des hackers via cette machine, à des atteintes à la confidentialité des données stockées ou encore à la contamination du réseau par un malware.
La tentation d’interdire cette pratique
Assurer la sécurité d’un réseau suppose d’avoir la main sur chacune de ses composantes. Or, ce n’est plus le cas avec le BYOD. Raison pour laquelle dans ses , l’Agence nationale de la sécurité des systèmes d’information (Anssi) considère qu’un « SI maîtrisé ne peut intégrer les pratiques de bring your own device (BYOD) où des personnes peuvent connecter au SI des équipements personnels dont l’opérateur ne maîtrise pas le niveau de sécurité ».
Concrètement, pour l’Anssi, un poste maîtrisé est « un poste de travail fourni, configuré et maintenu par l’opérateur. D’une part, il ne peut s’agir d’un équipement personnel et d’autre part, l’utilisateur ne peut être administrateur du poste, le niveau de sécurité pouvant alors être directement modifié par l’utilisateur ».
Dans une optique purement sécuritaire, le BYOD est donc à proscrire.
Le choix des collaborateurs
Du côté des collaborateurs, plusieurs éléments expliquent le recours à des solutions logicielles ou matérielles autres que celles de l’entreprise :
- Le fait d’ignorer que ces pratiques sont interdites ou non recommandées ;
- L’impossibilité de ramener chez soi le matériel informatique de l’entreprise ;
- L’obsolescence ou la moindre qualité du matériel ou des solutions logicielles mis à disposition par l’entreprise ;
- Un excès de règles de sécurité qui dégradent les conditions d’utilisation des matériels et logiciels fournis ;
- Le refus d’utiliser plusieurs outils, notamment plusieurs smartphones.
Des motivations fortes et cohérentes qui doivent être prises en compte par les entreprises avant d’envisager une simple interdiction du BYOD. Car interdire le BYOD, sans autre forme de procès, les expose au « Shadow IT », autrement dit à devoir faire face à l’utilisation non déclarée de matériels et de logiciels de traitement des données et de communication. Une pratique encore plus à risque pour l’entreprise car totalement clandestine.
Le recours au COPE…
Pour limiter ces risques du BYOD « clandestin », l’entreprise dispose de deux possibilités. La première consiste à proscrire l’utilisation d’une machine personnelle dans le cadre professionnel. Mais attention, cette exigence, comme nous l’avons déjà évoquée, ne sera entendue qu’à la condition que le matériel fourni soit aussi performant et convivial que celui du salarié.
Une phase d’échange devra donc être engagée pour mieux comprendre les besoins des collaborateurs, mais aussi pour leur rappeler les dangers que l’utilisation d’une machine ou d’un logiciel « extérieur » fait peser sur l’entreprise.
En outre, il conviendra d’autoriser les collaborateurs, dans un cadre restreint et sécurisé, à utiliser le matériel de l’entreprise pour mener quelques actions privées. On parle ici de COPE (« corporate owned, personally enabled » ou « propriété de l’entreprise avec accès privé »).
Ces échanges déboucheront sur la rédaction d’une charte définissant les règles d’utilisation du matériel de l’entreprise à des fins personnelles.
… ou au BYOD très encadré
La seconde solution revient à autoriser le collaborateur à utiliser son propre matériel à titre professionnel, mais uniquement si ce matériel peut être sécurisé par l’entreprise et que son usage soit encadré.
L’idée étant ici de protéger les données professionnelles traitées via l’appareil du collaborateur, mais aussi de consolider la frontière entre les usages et les données professionnelles et personnelles. Voici 5 grandes règles rappelées par la plate-forme gouvernementale Cybermalveillance.gouv.fr sur .
Utiliser des adresses de courriel différentes
Une erreur de manipulation peut conduire à adresser un courriel à la mauvaise personne (un message intime à un collègue ou à un prestataire, un dossier professionnel confidentiel à une connaissance). En outre, les risques de voir sa messagerie piratée sont plus importants lorsque l’on utilise des services gratuits. Deux raisons qui plaident pour que l’on ne mélange pas sa messagerie personnelle et sa messagerie professionnelle.
Distinguer les espaces de stockage en ligne
Certains espaces de stockage (Dropbox, Drive…) sont utilisés par des particuliers en raison de leur praticité, mais également de leur gratuité. Mais là encore, leur utilisation pour stocker des données professionnelles, surtout sensibles comme par exemple des fiches clients, des contrats, doit être interdite. Les données professionnelles ne doivent être enregistrées que sur les serveurs sécurisés de l’entreprise (physique ou cloud).
Dans le même esprit, aucune donnée professionnelle ne doit être enregistrée sur le disque dur de la machine au risque d’être perdue ou exposée en cas de panne, de perte ou de vol.
Utiliser des mots de passe différents
La tentation est forte d’utiliser le même mot de passe pour l’ensemble de ses comptes sécurisés. Toutefois, cette pratique est fortement déconseillée dans la mesure où si ledit mot de passe vient à être découvert, toutes les données se trouvent en danger : les données personnelles, mais également celles de l’entreprise. L’utilisation d’un mot de passe différent pour chaque type de compte est donc nécessaire. Sur ce point, l’utilisation d’un gestionnaire de mot de passe est fortement conseillé.
Ne pas installer n’importe quel logiciel
Certains logiciels ou applications mis gratuitement à disposition sur internet ou sur des plates-formes de téléchargement peuvent contenir des virus ou des fonctions destinées à espionner leurs utilisateurs. Raisons pour lesquelles il convient d’être très prudent et de n’installer sur les machines utilisées pour des usages pro-perso que des programmes provenant de plates-formes ou d’éditeurs ayant pignon sur rue.
Assurer les mises à jour de sécurité
Comme pour les machines de l’entreprise, les mises à jour de sécurité (systèmes d’exploitation, logiciels anti-malwares, navigateurs…) doivent être installées dès leur publication. Adopter une mise à jour automatique est ici conseillée.
Là encore, une charte définissant les conditions d’utilisation des machines BYOD devra être mise en place dans l’entreprise.
LinkedIn : le réseau social des professionnels
LinkedIn est sans conteste le réseau social professionnel le plus important du monde. Il est idéal pour mettre en avant son expertise, travailler son réseau de partenaires et de client et sa marque employeur.
Lancé en 2002, LinkedIn s’est rapidement imposé comme LE réseau social mondial des professionnels. En janvier 2024, un milliard de personnes l’utilisaient dans le monde dont 29 millions en France. L’occasion, en 4 questions, de refaire le point sur cette plate-forme.
1. Qui est sur LinkedIn ?
- 60 % de ses utilisateurs ont entre 25 et 34 ans ;- on y trouve des salariés désireux de mettre en lumière leur expertise au profit de leur employeur ;- des personnes qui recherchent un emploi ;- des entreprises et des professionnels libéraux qui communiquent sur leur savoir-faire et leur actualité.
2. Qu’est-ce qu’on y trouve ?
LinkedIn est un réseau qui accueille presque exclusivement des professionnels. C’est donc l’outil de mise en relation idéal pour travailler en BtoB. Une orientation professionnelle qui se traduit par le sérieux des échanges entre utilisateurs et par la qualité des contenus proposés (actualités métiers, règlementaires, analyses sectorielles...).
À noter qu’il existe des groupes sur LinkedIn qui permettent à des professionnels travaillant dans les mêmes secteurs de partager des posts et d’échanger des informations et des avis. Ces groupes sont très utiles pour se constituer un réseau, mais aussi comme outils de veille technique ou règlementaire.
3. Pourquoi y aller ?
On peut identifier 5 objectifs majeurs qu’une utilisation régulière de LinkedIn vous permettra de poursuivre :1. fidéliser votre audience en publiant des contenus de qualité ou en poussant ceux des autres ;2. développer votre réseau professionnel pour acquérir de nouveaux clients et partenaires ;3. augmenter la fréquentation de votre site en y attirant une audience qualifiée ;4. soigner votre image de marque en faisant valoir vos expertises ;5. renforcer votre marque employeur pour séduire vos futurs collaborateurs.
4. Comment faire ?
D’abord, se créer un profil…
LinkedIn va vous permettre de mettre en lumière votre identité professionnelle et celle de votre entreprise. Cette démarche, vous allez l’initier en créant votre profil. Et n’oubliez pas, c’est la première impression qui compte ! Il est donc important de soigner cette étape en choisissant une photo de vous adaptée (de qualité professionnelle, actuelle, souriante…), en privilégiant un titre professionnel accrocheur et en rédigeant une présentation de « qui vous êtes » à la fois succincte et complète. Dans ce même esprit synthétique, vous renseignerez vos expériences professionnelles et votre formation (cursus, diplômes, distinctions).
D’une manière générale, vous devez enrichir votre page profil pour la rendre plus visible. N’hésitez donc pas à personnaliser votre url (en intégrant votre nom dans l’adresse), à ajouter une photo de couverture, à compléter les champs d’information (titre, info...) et à faire apparaître l’adresse du site web de votre entreprise ainsi que celles de ses comptes Instagram, Facebook ou encore de sa chaîne YouTube.
À noter :
les fiches Profil LinkedIn sont indexées par les moteurs de recherche (pas seulement par celui de LinkedIn). Utiliser des mots-clés pertinents lors de leur rédaction leur donnera donc une meilleure visibilité dans les pages de résultats des moteurs.
… ensuite, développer son réseau…
Mais créer un profil, aussi professionnel soit-il, n’est pas suffisant pour se constituer et développer un réseau. Vous devez être actif. Concrètement, il est conseillé de :- publier régulièrement des contenus qui servent vos objectifs (mise en avant de votre expertise, des réalisations de votre entreprise, de vos valeurs au service de votre marque employeur...) ;- varier les formats de ces contenus pour surprendre et attirer (textes, vidéos, podcasts, infographies…) ;- s’intéresser aux contenus publiés par d’autres (notamment vos abonnés) en les commentant et en les « likant » ;- pousser régulièrement des informations grand public (sans aller jusqu’aux vidéos de petits chats…) pour créer des respirations « humaines » dans votre flot d’informations techniques ;- commenter dès que vous ou l’un de vos contenus est mentionné dans un post ;- participer à des groupes LinkedIn qui traitent les sujets qui vous intéressent pour vous y faire connaître et faire partager votre expertise ;- accepter des contacts que vous ne connaissez pas, tout en restant attentif à l’adéquation de leurs profils avec vos objectifs.
À savoir :
vos collaborateurs et vos partenaires seront les meilleurs ambassadeurs de votre entreprise ou de votre cabinet sur LinkedIn. Invitez-les à suivre votre Profil, à s’abonner à votre page Entreprise et à relayer les contenus qu’elle abrite.
… enfin, créer une page Entreprise
Pour travailler votre marque employeur et la notoriété de votre entreprise ou de votre cabinet, vous devrez créer une page Entreprise. Là aussi, cette dernière doit être la plus complète possible (champs complets, logo, valeurs, histoire...) et proposer régulièrement des nouveaux contenus. Vous pourrez y publier vos offres d’emploi et inviter ceux qui la visitent à se connecter au site de votre entreprise.
À savoir :
dans des conditions comparables à celles qu’offrent les moteurs de recherche pour monter dans leurs classements (budget défini, critères de ciblage, types de publicité…), LinkedIn Ads offre la possibilité, à ses utilisateurs, d’être plus visibles sur le réseau moyennant finance.
Faire jouer son droit à l’oubli numérique
Les moteurs de recherche doivent déréférencer tout contenu portant atteinte à la vie privée ou à la réputation de la personne qui le demande. À cette fin, la plupart d’entre eux proposent aux internautes une procédure de saisie.
Consacré, en 2014, par un arrêt de la Cour de justice de l’Union européenne, le droit à l’oubli numérique permet à tous, particuliers et professionnels, de demander à l’éditeur d’un moteur de recherche de déréférencer (c’est-à-dire de faire disparaître de son index) une ou plusieurs pages web, accessibles en tapant leur nom (à partir d’un ordinateur situé dans un pays de l’Union européenne), et sur lesquelles se trouvent des informations qui constituent une atteinte à leur vie privée ou à leur réputation. Une simple demande transmise via un formulaire est généralement suffisante pour lancer la procédure, sachant que le moteur de recherche peut la rejeter s’il estime qu’elle n’est pas fondée.
Plus de 395 000 demandes chez Google
En près de 10 ans, plus de 395 000 demandes de suppressions d’informations personnelles relatives à 1,2 million de pages web ont été adressées aux seuls services de Google par des internautes français. 50,6 % de ces pages ont été déréférencées. Il faut ici savoir que Google, comme les autres moteurs de recherche, analyse chaque demande et dispose de la possibilité de la rejeter s’il estime qu’il faut maintenir les informations concernées dans l’intérêt général ou qu’elles ne portent pas atteinte à la vie privée du demandeur.
Pour nous aider à y voir plus clair sur l’approche des services de déréférencement de Google, sont présentées sur son site. En voici 5 :- une personnalité publique a demandé la suppression des résultats de recherche sur 25 pages web qui diffusaient des images privées de la personne en question. Google a déréférencé ces pages ;
- une personne a demandé la suppression de plusieurs résultats de recherche la concernant. Ces derniers permettaient d’accéder à des pages web faisant référence à un poste qu’elle occupait, en étant mineure, au sein d’un parti politique. Google a déréférencé les pages en question ;
- le PDG d’une entreprise en ligne a demandé que soient supprimées des résultats de recherche les pages de réseaux sociaux et les articles de presse qui présentaient son site web, au motif qu’ils contenaient des données personnelles et dévoilaient sa vie privée, comme son nom et celui de sa société. Google a supprimé des résultats les pages web associées au nom du demandeur, mais pas celles associées au nom de sa société ;
- Google a rejeté la demande d’un prêtre qui souhaitait que les pages web faisant écho à sa condamnation pour détention d’images pédophiles et à son bannissement de l’Église soient déréférencées ;
- Enfin, Google a rejeté la demande d’une personne qui souhaitait voir déréférencées des pages web rappelant qu’elle dirigeait une société offshore citée dans l’affaire des « Panama Papers ».
De l’effacement au déréférencement
Avant de saisir les moteurs de recherche, il faut s’adresser au responsable du site sur lequel se trouvent les informations posant problème. Seul ce dernier dispose, en principe, de la possibilité technique de les supprimer. Pour réaliser cette demande d’effacement, il faut avant tout l’identifier et trouver un moyen pour le joindre. En principe, son identité et ses coordonnées sont précisées dans les mentions légales du site (rubrique obligatoire).
Une fois cette identification réalisée, il reste à lui adresser un courrier réclamant la suppression des contenus portant atteinte à votre vie privée ou à votre réputation. Le responsable du site dispose d’un mois pour répondre. En l’absence de réponse ou en cas de refus de suppression, vous pouvez déposer une ou par courrier. Lors de ce dépôt de plainte, il convient de communiquer à la Cnil une copie des courriers adressés au responsable du site et de ses éventuelles réponses. S’ils considèrent la demande justifiée, les services de la Cnil entreront à leur tour en contact avec le responsable du site pour qu’il efface les contenus incriminés.
Contacter les moteurs
Ce n’est qu’après avoir effectué cette démarche (même si elle n’a pas abouti : absence de réponse, refus de suppression, dossier en cours d’examen par la Cnil…) qu’il convient de saisir les services de déréférencement des moteurs de recherche. Ces derniers ne pourront pas supprimer lesdites pages, mais ils pourront en limiter la visibilité en les faisant disparaître des pages des résultats de toute recherche réalisée en utilisant votre nom.
Pratiquement, il suffit de remplir un formulaire dédié, d’y joindre une copie de sa pièce d’identité et d’y présenter les motifs de sa demande. Tout demandeur est tenu informé des suites données à sa réclamation.
Si elle est rejetée, une fois encore, vous avez la possibilité de vous adresser à la Cnil. Cette dernière disposant de la faculté, lorsqu’elle l’estime nécessaire, de saisir à son tour les responsables du moteur de recherche.
Sur une , la Cnil tient, par ailleurs, à jour des liens permettant d’accéder directement aux formulaires des principaux moteurs de recherche utilisés en France (Bing, Google, Qwant…).
Noyer les contenus
Lorsque le déréférencement est refusé, il faut changer de stratégie et tenter de « noyer » les contenus litigieux. Concrètement, cela revient à créer un grand nombre de pages portant des contenus « positifs » et à soigner leur référencement pour que, le plus vite possible, elles prennent la place des contenus litigieux dans les premières pages des moteurs de recherche. Pour cela, il faut s’adresser à une agence web spécialisée dans la e-réputation.
Que faire de l’intelligence artificielle ?
Si tout le monde s’accorde à qualifier l’IA de nouvelle révolution industrielle, les entreprises s’interrogent sur la manière dont elles pourraient en tirer profit.
L’intelligence artificielle (IA) est un dispositif technique « capable de simuler certains traits de l’intelligence humaine, comme le raisonnement et l’apprentissage », nous dit le dictionnaireLe Robert. En théorie, une IA se trouve donc en mesure d’accomplir ce que, jusque-là, seul un humain pouvait réaliser. Un champ des possibles vertigineux qui ne manque pas de nourrir les inquiétudes, mais également la perplexité des chefs d’entreprise qui se demandent par quel bout le prendre. Une bonne raison de quitter les grands principes pour revenir sur des applications et des stratégies plus concrètes.
Profiter des nouveaux outils dotés d’IA
De nombreux outils dits « de productivité », déjà présents dans les entreprises, intègrent ou sont en train d’intégrer de nouvelles fonctions portées par l’IA. Sans vouloir faire de publicité pour Microsoft (ils n’en ont pas besoin), on peut, par exemple, citer l’application « Copilot » qui, désormais, est proposée en complément des outils bureautiques de la marque. Basée sur ChatGPT (propriété de Microsoft), cette application vient optimiser l’utilisation de tous ces programmes en automatisant l’organisation de réunions, la rédaction de comptes rendus, de brouillons de rapport ou de résumés. Elle permet également d’analyser plus facilement des données chiffrées tirées et/ou restituées sur un tableur (identification des tendances, simulations, pistes d’amélioration…) ou encore de créer des slides de présentation à partir d’un simple fichier de traitement de texte. Pour ceux qui travaillent sur l’image, on peut également parler de l’arrivée du « remplissage génératif » sur Photoshop d’Adobe. Une nouvelle fonction qui permet, via une IA générative, de retoucher une image ou d’y ajouter des éléments complémentaires simplement en rédigeant un « prompt » décrivant ce que l’on souhaite voir apparaître.
Outre ces logiciels bureautiques, de très nombreuses solutions métiers comme Autodesk (solutions pour les architectes et les ingénieurs) ou encore Lexis+ AI (logiciel de pré-rédaction et d’analyse de documents juridiques pour les avocats) sont également disponibles. Il est aussi possible de trouver, dès maintenant, des outils RH optimisés par une IA (pour faciliter le recrutement en rédigeant des annonces plus adaptées et en identifiant automatiquement les meilleurs candidats, assurer la formation continue et le suivi personnalisé des salariés…) ou des logiciels de gestion de clientèle comme Salesforce qui, en croisant les données clients, va aider les commerciaux à identifier ceux qui sont le plus à même d’acheter.
À noter :
première IA générative grand public, ChatGPT d’OpenAI peut être utilisée par les entreprises, comme les particuliers, pour, outre répondre à toutes sortes de questions, rédiger des résumés, des courriers de tous types ou encore des lignes de code dans la plupart des langages informatiques utilisés aujourd’hui. Attention, tout de même, sa base de données n’est pas à jour (janvier 2022 pour la version 3.5 et avril 2023 pour la version 4.0).
Il ne s’agit là que de quelques exemples, mais tous illustrent l’intérêt premier des outils dotés d’une IA : rendre encore plus productives les personnes qui les utilisent, notamment en les déchargeant de tâches fastidieuses et chronophages !
Tenter un développement sur-mesure
Upgrader les logiciels standards n’est pas la seule voie que les entreprises doivent emprunter pour profiter de la révolution IA à l’œuvre. Elles peuvent également se faire assister par des SSI (sociétés de services informatiques) pour développer une solution sur-mesure qui leur permettra de générer des gains de productivité, des réductions de coûts, une amélioration de leur relation client, voire tout cela à la fois. Il faut signaler ici que les entreprises qui développent, pour la première fois, un projet d’intégration de l’IA destiné à améliorer leur fonctionnement ont la possibilité d’être soutenues, notamment par les régions. C’est le cas, par exemple, dans le Grand Est (aide aux entreprises primo-utilisatrices d’IA) ou en Île-de-France (Pack IA) où des aides spécifiques sont proposées aux PME et aux ETI. Sur le site du Pack IA (www.packia.fr), il est d’ailleurs possible d’accéder aux descriptifs d’une quarantaine de projets accompagnés par la région francilienne. On y retrouve le nom de l’entreprise, sa taille, son métier, le défi à relever, une présentation de la solution développée et les gains générés par son adoption. Cette petite base de données présente l’intérêt de montrer la très grande diversité des solutions métiers qu’il est possible de déployer grâce à l’IA. On y trouve, notamment, une entreprise de rénovation de bâtiment qui a automatisé la gestion de sa base produits contenant plus de 50 000 références (nettoyage, enregistrement automatique de nouveaux produits).
Une autre, spécialisée dans le développement de simulateurs de conduite, a, grâce à l’IA, automatisé la génération de décors en y ajoutant des routes, des arbres, des forêts et des bâtiments.
Une troisième entreprise a, de son côté, développé une solution lui permettant d’analyser les flux d’informations et de documents extraits des greffes des tribunaux de commerce pour renforcer son activité d’intelligence économique.
On peut également citer une petite société spécialisée dans la production d’œuvres interactives qui vient de faire développer un personnage virtuel conversationnel et « émotionnel » qui peut interagir en anglais et en français avec les utilisateurs de ses applications.
Faire de l’IA son business model
Difficile d’aborder l’IA dans les entreprises sans parler de celles qui ont décidé, non plus d’optimiser leurs outils grâce à elle, mais de l’utiliser pour créer de nouveaux produits ou services disruptifs. Des entreprises innovantes qui, pour beaucoup, se sont retrouvées au salon VivaTech organisé à Paris à la fin du mois de mai 2024. Et là encore, les solutions qu’elles proposent illustrent non seulement la puissance de l’IA, mais également l’infinie variété de ses applications.
Emocio, par exemple, a développé un outil IA qui permet d’évaluer le ressenti des salariés en se basant sur les documents internes de l’entreprise (entretiens annuels, enquêtes…) et des dispositifs d’interview. L’objectif étant de réduire les risques psychosociaux et, plus largement, d’optimiser l’engagement des collaborateurs.
F8th, une entreprise canadienne, pourrait, quant à elle, précipiter la disparition des mots de passe avec sa solution qui permet d’identifier de manière « continue », via l’IA, l’utilisateur d’une machine informatique grâce à la manière unique dont il fait usage d’un clavier et d’une souris. La solution a déjà été adoptée par Interpol.
SquareMind, de son côté, a déployé un bras articulé qui a pour mission, en à peine 5 minutes, de faire une cartographie précise de l’ensemble de la peau d’un patient (et de la sauvegarder). Ce qui permettra aux dermatologues de prévenir et de surveiller plus facilement les pathologies de leurs patients en disposant d’une base de référence.
Toujours dans la santé, l’entreprise Pulse Audition a développé un ingénieux système intégré dans une paire de lunettes qui vient modifier, en permanence, les réglages des prothèses auditives du porteur pour qu’elles lui permettent de mieux entendre la personne qu’il regarde et avec laquelle il parle sans être perturbé par les bruits environnants.
Et que dire d’« ARC Therapy » d’Onward qui, grâce à des implants médullaires animés par une IA, parvient à redonner la capacité de marcher à des personnes atteintes de paralysie ou de la maladie de Parkinson à un stade avancé.
L’intérêt des gestionnaires de mots de passe
Outre de protéger les mots de passe, ces coffres-forts électroniques permettent de les créer, de les administrer et d’y accéder via plusieurs outils.
À titre privé et professionnel, nous nous trouvons dans l’obligation de gérer plusieurs dizaines de mots de passe. Un défi impossible à relever lorsque l’on souhaite respecter les principes de sécurité qui prévalent en matière de conception, mais également d’administration de ces clés numériques. Raison pour laquelle il est conseillé de recourir aux services des gestionnaires de mots de passe. Présentation.
Plus qu’un coffre-fort
Un gestionnaire de mot de passe est un logiciel administrant une base de données sécurisée. Il a pour principale mission de stocker vos identifiants et tous les mots de passe associés et de vous permettre de vous connecter automatiquement sur chacun des sites sécurisés auxquels vous êtes abonné. Ces programmes peuvent être présents sur le disque dur de votre ordinateur, mais également en ligne (cloud), ce qui présente l’avantage d’en permettre l’accès à partir de n’importe quelle machine. Ces outils sont, le plus souvent, utilisables à partir d’un ordinateur, mais également d’une tablette ou d’un smartphone.
Tous les gestionnaires de mots de passe utilisent des systèmes d’encodage très puissants pour interdire l’accès aux données qu’ils abritent. Par ailleurs, certains de ces logiciels proposent également des systèmes anti-intrusion commandant l’effacement de l’ensemble des identifiants et mot de passe au-delà d’un certain nombre de tentatives infructueuses d’ouverture. D’autres offrent aussi des claviers virtuels pour saisir les mots de passe à l’abri des « keyloggers » (logiciel espion enregistrant les frappes du clavier). D’autres, enfin, intègrent un générateur de mots de passe robuste et un système permettant d’administrer leur durée de vie et de mesurer leur fiabilité. La création et le changement des mots de passe peut ainsi être « délégué » à cet outil.
Quel gestionnaire de mot de passe ?
Il existe des dizaines de gestionnaires de mots de passe. Le plus souvent, ces outils sont téléchargeables sur le site de leur éditeur sur les plates-formes proposant des utilitaires pour ordinateurs (Clubic, 01Net, Les Numériques, Comment ça marche ?...) et pour smartphones (Apple Store, Google Play…). Les plus connus sont Dashlane, LastPass, NordPass et KeePass. Les 3 premiers sont payants (du moins en version non limitée – il faut compter entre 30 et 50 € par an) et le dernier est gratuit. KeePass est, en effet, un logiciel open source (mis à jour par une communauté d’informaticiens très active) qui, en outre, présente l’avantage d’être certifié par l’Agence nationale de la sécurité des systèmes d’information (Anssi). Seul regret, KeePass souffre d’une interface très rustique comme beaucoup de logiciels open source.
Un mot de passe incassable pour le gestionnaire
Le gestionnaire se charge d’administrer tous vos mots de passe. Il vous revient, en revanche, de protéger l’accès à sa base de données. Vous pouvez, si votre smartphone ou votre ordinateur le permet, utiliser une serrure biométrique (lecteur d’empreinte digitale, par exemple) ou un mot de passe. Ce dernier devra, bien entendu, être à la fois très robuste, mais aussi assez simple à retenir. Pour parvenir à concevoir de tels mots de passe, la CNIL donne quelques conseils sur son site et précise :- qu’ils doivent être complexes (12 signes minimum et composés de différents types de signes : majuscules, minuscules, caractères spéciaux, signes de ponctuation…) ;- qu’ils doivent être impossibles à deviner (n’avoir aucun sens, ne contenir aucune information personnelle comme une date de naissance ou encore le prénom d’un enfant) ;- que le même mot de passe ne doit pas servir à sécuriser plusieurs comptes afin d’éviter des « piratages en cascade » ;- qu’il ne faut pas les noter en clair sur un Post-it ou dans un fichier enregistré sur un ordinateur ou un smartphone ;- qu’ils doivent être régulièrement changés. Plus le site qu’il protège est sensible, plus le rythme de changement doit être soutenu (dans tous les cas, au moins une fois par an).
Pour ne pas les oublier, la CNIL conseille :- d’adopter la méthode de la première lettre de chaque mot. Cette dernière permettant de se souvenir d’une phase simple qui donne un mot de passe complexe. « Il était une fois en Amérique et les 12 salopards sont mes films préférés. » donnant : « IéufeAel12ssmfp. ». Un générateur de mots de passe basé sur l’utilisation de la première lettre de chaque mot utilisé dans une phrase est, d’ailleurs, mis à disposition .
Google Business Profile : gagner en visibilité sur internet
Cet ensemble d’outils gratuits permet, notamment, à tous les commerçants et les artisans d’être facilement identifiés et localisés par les utilisateurs de Google ou de Maps.
Depuis plusieurs années, le géant américain du numérique regroupe, sous l’appellation « Google Business Profile » (anciennement « Google My Business »), les différentes solutions qu’il tient à la disposition des petites entreprises pour les aider à être plus facilement localisables sur son moteur de recherche et sur ses sites associés. Présentation de ce service simple et gratuit.
Des recherches nominatives…
Lorsque les termes utilisés pour rechercher une entreprise sont suffisamment précis (garage Dupont à Paris, cabinet d’expertise comptable Durand à Brive) et que cette dernière est inscrite sur Google Business Profile, un cadre s’affiche sur la droite de la page de résultats. Cadre au sein duquel apparaissent le nom de l’entreprise, son métier, un court descriptif des biens qu’elle vend ou des services qu’elle propose, son adresse et ses coordonnées téléphoniques.
En outre, afin de permettre aux clients de se rendre plus facilement dans les locaux de l’entreprise un aperçu de sa localisation sur Google Maps est proposé, ainsi que, le cas échéant, ses horaires d’ouverture. Des photos de présentation, l’adresse du site internet de l’entreprise lorsqu’il en existe un (il n’est pas nécessaire de disposer d’un site web pour créer une fiche Google Business Profile), ou encore les avis et commentaires laissés par les clients peuvent également prendre place dans ce cadre.
… et des recherches par secteur
Dans l’hypothèse où l’identification n’est qu’indirecte (en effectuant une recherche par secteur du type : « restaurants La Rochelle », par exemple), s’affiche alors, en haut de classement de la page de résultats, une liste des restaurants rochelais (nom, adresse, photo…) précédée d’un aperçu de leur localisation sur Google Maps. Il suffit alors de cliquer sur n’importe lequel d’entre eux pour qu’apparaisse leur fiche Google Business Profile.
Quelques services complémentaires
Outre les informations déjà citées, dans ces cadres de présentation figure un bouton permettant de calculer et d’afficher un itinéraire pour se rendre dans les locaux de l’entreprise. Lorsque l’on utilise un smartphone, un autre bouton présent à ses côtés permet de composer directement son numéro de téléphone. Il faut savoir, par ailleurs, que ces fiches de présentation sont aussi accessibles via Google Maps.
Enfin, à côté de ces services de base, existe également Google Post. Il s’agit d’une fonction qui permet de créer des publications depuis Google Business Profile pour informer les internautes (actualité, nouvelles recrues, évènement, changement d’horaires d’ouverture…). En publiant régulièrement des posts (et en les partageant sur les réseaux sociaux), les entreprises parviennent à attirer l’attention des internautes et à se démarquer de la concurrence.
Comment s’inscrire ?
Pour s’inscrire, il suffit de se connecter sur le (www.google.com/intl/fr_fr/business/) et de cliquer sur « Gérer mon profil ». À l’issue des premières démarches de recherches destinées à identifier et à localiser l’entreprise, il faut préciser si elle accueille des clients dans ses locaux ou si elle propose ses services autrement. Enfin, il faut entrer son nom, ses coordonnées et son métier. S’ensuit une phase de validation permettant à Google de vérifier la réalité des informations saisies.
Concrètement, une fois la demande de création de fiche terminée, et avant qu’elle ne soit mise en ligne, les services de Google vont vérifier que la personne qui effectue les démarches est en droit de le faire. L’objectif étant d’éviter que des tiers viennent créer ou animer la fiche Google Business Profile d’une entreprise qui ne leur appartient pas ou qu’ils ne gèrent pas. Après avoir instruit le dossier, Google adresse au demandeur un code qui permet l’activation du compte. Une fois le compte activé, il ne reste plus qu’à l’alimenter en actualités et autres photos.
Précision :
il est important de ne pas oublier d’actualiser les horaires d’ouverture, de modifier régulièrement les photos et de répondre aux commentaires des clients. Ces différentes actions qui font vivre la fiche sont prises en compte par Google dans ses critères de référencement naturel.
Valider une entreprise déjà présente sur Google Business Profile
Google utilise les données des différents annuaires pour créer des fiches Google Business Profile. Il est donc tout à fait possible de trouver, lors d’une requête lancée sur ce moteur, une fiche existante au nom de sa propre entreprise. Dans cette hypothèse, la mention « Vous êtes le propriétaire de cet établissement ? » apparaît sur la fiche. Si vous cliquez sur cette dernière pour prendre en main sa gestion, les mêmes démarches de vérifications que celles intervenant lors d’une création de fiche seront alors lancées par les services de Google avant de vous attribuer les droits de gestion du compte.
Précision :
dans l’hypothèse où un tiers serait parvenu à créer ou à revendiquer avec succès une fiche présentant une entreprise sur laquelle il ne dispose d’aucun droit, Google propose un ensemble de démarches permettant à l’ayant droit spolié de reprendre le contrôle de sa fiche.
Un outil statistique
Google Business Profile offre également un outil de statistiques permettant de comptabiliser et d’analyser les visites des internautes faites à la fiche de présentation. Outre le nombre total de visites effectuées dans un temps donné, cet outil permet de mesurer le type d’informations consultées (informations du profil, photos, posts publiés), les interactions que ces contenus ont produit (commentaires, actions de partage des contenus…), mais aussi le nombre de clics de demandes d’itinéraire, les mots-clés utilisés par les internautes ou encore le nombre de clics d’accès au site de l’entreprise lorsqu’il en existe un.
Les Français partagés sur les impacts de l’IA sur le travail
Même s’ils se montrent globalement positifs sur les répercussions des outils d’intelligence artificielle dans leur vie professionnelle, les Français redoutent que ces technologies nuisent à leur bien-être et à l’intérêt qu’ils portent à leur travail.
À l’occasion du premier anniversaire du lancement de ChatGPT, l’agent conversationnel doué d’intelligence artificielle d’OpenAI, Ispos a mené pour Sopra Steria pour savoir comment ils appréhendaient l’immixtion dans leur vie, notamment professionnelle, de ce type d’IA générative.
Un outil déjà connu
83 % des personnes interrogées, sur un échantillon de 1 000 personnes représentatives de la population française, ont déjà entendu parler de ChatGPT et 55 % savent précisément de quoi il s’agit. Un taux qui atteint 72 % chez les moins de 35 ans et 67 % parmi les Français diplômés de l’enseignement supérieur. Seuls 17 % des personnes interrogées n’ont jamais entendu parler de ChatGPT. En à peine un an, la figure de proue des IA génératives (capable de créer à la demande des textes, des images, du code informatique…) a donc acquis une très grande notoriété dans notre pays et pour cause : 77 % des Français considèrent les IA comme une véritable révolution. Un score qui grimpe à 81 % chez les 35-49 ans et à 87 % dans le groupe des cadres supérieurs.
Une arrivée des IA qui, pour 62 % des personnes interrogées, est déjà en train de bouleverser notablement leur manière de travailler. 73 % des cadres se disent déjà impactés, contre 63 % des professions intermédiaires et 56 % des employés et ouvriers.
À terme, 58 % des Français estiment que leur travail va être « profondément transformé par l’IA ». Les plus pessimistes redoutant que leur entreprise (37 %), leur travail (36 %) ou leur métier (37 %) finisse par disparaître en raison du développement des IA. Des inquiétudes particulièrement vives chez les plus jeunes. L’étude souligne à ce propos que plus les personnes interrogées utilisent ChatGPT, plus elles sont convaincues que ce type d’outil va transformer leur vie professionnelle.
Des espoirs et des inquiétudes
Dans le détail, les Français se révèlent très partagés sur les répercussions des outils d’IA dans le travail. L’étude note ainsi que 55 % d’entre eux considèrent que l’arrivée de cette nouvelle technologie va être bénéfique pour les formations professionnelles proposées aux salariés. Une majorité positive (52 %) se dégage également lorsqu’on les interroge sur les impacts de l’IA sur l’organisation du travail.
En revanche, les avis sont plus mitigés sur les répercussions de ces outils sur l’efficacité au travail (49 % d’avis positifs et 28 % de négatifs) ou sur le niveau de bien-être des salariés (45 % d’avis positifs et 30 % d’avis négatifs). Quant à l’apport positif des IA sur l’intérêt des salariés au travail, il ne convainc que 40 % des Français, 37 % estimant, au contraire, que le déploiement de ces outils sapera cet intérêt.
Un besoin de formation
L’arrivée des IA incitent les Français à désormais corréler la réussite professionnelle à la maîtrise de cet outil. À la question « qu’est-ce qui selon vous sera le plus important pour réussir sa vie professionnelle dans les prochaines années ? », 45 % citent « savoir utiliser les outils d’intelligence artificielle » juste derrière « avoir goût au travail » (69 %), « avoir des diplômes » (53 %) et « maîtriser des langues étrangères » (51 %). Un taux qui grimpe à 51 % chez les utilisateurs réguliers de ChatGPT, faisant passer, dans cette catégorie de Français, cette qualité à la deuxième place du podium. Sans surprise, face à ce constat, 67 % des Français se disent favorables à la mise en place d’enseignements spécifiques dès l’école.
Vélos et trottinettes électriques : le point sur le Code de la route
Depuis quelques années, bicyclettes et trottinettes électriques se multiplient dans nos villes tant elles séduisent les urbains désireux de combiner les moyens de déplacement individuels et les transports collectifs. Mais leur succès est tel que leur cohabitation avec les autres véhicules et les piétons devient quelquefois très difficile. Une bonne raison de revenir sur les règles qui encadrent leur utilisation.
Les trottinettes et les vélos sur les pistes cyclables
Les vélos ainsi que les trottinettes électriques ont l’interdiction, sauf s’ils sont poussés à la main, de circuler sur les trottoirs.
Les trottinettes, mais aussi les gyropodes et autres hoverboards électriques, par la force d’un décret, ont récemment fait leur entrée dans le Code de la route sous l’appellation « d’engins de déplacement personnel motorisés » (EDPM). Leurs conditions d’utilisation sont donc désormais règlementées.
Concrètement, les trottinettes et consorts sont invités à quitter les trottoirs et à circuler sur les pistes cyclables ou sur les axes routiers dont la vitesse est limitée à 50 km/h ou moins. Hors agglomération, leur circulation est interdite (sauf autorisation spécifique et sur les voies vertes et les pistes cyclables). Seules sont tolérées sur les trottoirs les trottinettes propulsées « à la main », autrement dit sans assistance électrique. En outre, l’âge minimal pour utiliser un EDPM est désormais fixé à 12 ans et il est interdit de transporter un passager ou des marchandises, de gêner les piétons en stationnant sa trottinette et de la conduire sous l’influence de l’alcool ou après usage de stupéfiants.
Important :
les EDPM étant considérés comme des véhicules terrestres à moteur, il est obligatoire de les assurer.
Attention :
les EDPM doivent être bridés par leurs constructeurs pour qu’ils ne puissent pas dépasser la vitesse de 25 km/h. L’utilisation d’une trottinette offrant la possibilité de dépasser cette vitesse (moteur débridé ou non homologué) est passible d’une amende de 1 500 €.
Quid des VAE ?
Comme son nom l’indique, le vélo à assistance électrique (VAE) est un vélo. Autrement dit, il est nécessaire de pédaler pour le faire avancer. En revanche, contrairement à une bicyclette traditionnelle, il dispose d’un moteur d’appoint qui permet de ne jamais forcer. La puissance dudit moteur étant, en France, plafonnée à 250 watts. En fonction des modèles, le poids de ces vélos oscille entre 15 et 30 kg. Quant à la vitesse maximale au-delà de laquelle se coupe l’assistance, elle est de 25 km/h.
En principe, les VAE appartiennent à la catégorie « juridique » des cycles et non des vélomoteurs. Mais attention, cette notion de cycle est très précise et ne s’applique qu’aux VAE dont la puissance ne dépasse pas 250 watts et dont le moteur se coupe dès qu’ils dépassent 25 km/h. S’il excède ces performances, le VAE reste utilisable mais devient juridiquement un cyclomoteur ce qui implique le respect de nouvelles règles d’utilisation : immatriculation du véhicule, détention d’un permis, d’une assurance spécifique…
À savoir :
comme pour les autres véhicules, le port d’écouteurs et autres oreillettes à vélos ou à trottinette (électrique ou non) est prohibé. Les contrevenants s’exposent à une amende de 135 €.
Le port du casque conseillé
Un certain nombre de dispositifs de sécurité doivent équiper ces véhicules ou leurs utilisateurs.
Le port du casque et d’un gilet haute visibilité ou d’un équipement rétro-réfléchissant est obligatoire hors agglomération (lorsque la circulation des EDPM est autorisée). En agglomération, le port du casque n’est que conseillé, mais celui d’un gilet haute visibilité ou d’un équipement rétro-réfléchissant est obligatoire la nuit et en cas de faible visibilité (par temps de brouillard, par exemple).
Enfin, des dispositifs d’éclairage à l’avant et à l’arrière, des freins et un avertisseur sonore doivent équiper les trottinettes électriques.
Pour les VAE, le port du casque n’est pas obligatoire, mais seulement conseillé. En revanche, pour être autorisé à circuler, un vélo (électrique ou non) doit être muni de dispositifs d’éclairage à l’avant et à l’arrière et de catadioptres (à l’avant, à l’arrière et sur les côtés), de deux systèmes de freinage (un par roue) et d’un avertisseur sonore.
Une aide pour les employeurs
Pour inciter leurs salariés à se déplacer à vélo, les entreprises peuvent leur attribuer des aides exonérées de cotisations sociales.
Instauré en 2020, le forfait mobilités durables permet aux employeurs de prendre en charge les frais de transport des salariés qui effectuent les trajets entre leur domicile et leur lieu de travail en utilisant des modes de transport dits à « mobilité douce » (vélo, covoiturage, trottinette, etc.).
Ce dispositif, non obligatoire, est instauré par un accord d’entreprise ou interentreprises. Il peut aussi être prévu dans un accord de branche. En l’absence d’accord, l’employeur peut le mettre en place par décision unilatérale, après avoir consulté le cas échéant, le comité social et économique.
C’est l’accord collectif ou la décision unilatérale qui détermine la forme et le montant de l’indemnisation accordée aux salariés.
En 2022 et 2023, le forfait mobilités durables est exonéré d’impôt sur le revenu, de cotisations sociales et de CSG-CRDS dans la limite de 700 € par an et par salarié. Une limite portée à 900 € en Guadeloupe, en Guyane, en Martinique, à La Réunion et à Mayotte.
Par ailleurs, la limite d’exonération du forfait mobilités durables est, en 2022 et 2023, de 700 € lorsque l’employeur verse également la prime de transport (dont 400 € maximum pour les frais de carburant). Une limite portée à 900 € en Guadeloupe, en Guyane, en Martinique, à La Réunion et à Mayotte (dont 600 € maximum pour les frais de carburant).
Enfin, depuis 2022, cette limite d’exonération s’élève à 800 € lorsque le forfait mobilités durables se cumule avec la participation obligatoire de l’employeur aux frais d’abonnement aux transports publics et aux services publics de location de vélos. La limite correspond au montant de la participation obligatoire aux abonnements de transports publics si celui-ci est supérieur à 800 €.
Plongée dans l’univers du métavers
Imaginez un environnement de jeu électronique dans lequel vous allez pouvoir « vivre » dans la peau virtuelle de votre avatar. Vous pourrez y acheter un terrain pour y bâtir une villa, vous y trouverez des magasins Ralph Lauren, Nike et Gucci où, contre des cryptomonnaies, vous pourrez habiller votre avatar. Et si vous aimez l’art, des milliers d’œuvres authentifiées via des NFT vous y attendront. Voilà, en quelques mots, à quoi ressemblent les premiers métavers qui promettent de réinventer notre bon vieil internet.
Un web immersif où l’on peut librement commercer
Dans le métavers, grâce aux cryptomonnaies et aux NFT, nos avatars pourront acheter et vendre en toute sécurité.
Si le web 1.0 nous a permis de présenter des informations sur des sites et le web 2.0 d’échanger sur les réseaux sociaux, le web 3.0 nous offre une expérience totalement immersive. Plus question de regarder le web sur un écran, nous sommes désormais invités à y plonger, non plus comme de simples spectateurs, mais comme des acteurs aptes à interagir dans leur environnement sous la forme d’un double virtuel : l’avatar. Vous en doutez ? Alors inscrivez-vous sur The Sandbox, un des métavers les plus matures, qui accueille plus de 2,5 millions d’utilisateurs. Créé en 2011, The Sandbox n’était, à l’époque, qu’un jeu en ligne où l’on devait bâtir son petit monde. Aujourd’hui, la partie jeu existe encore et constitue toujours un des critères d’attraction. Mais désormais, les constructions des joueurs ont de la valeur. Tout, d’ailleurs, peut y être vendu, y compris les 160 000 parcelles de terrain inscrites au cadastre de ce monde virtuel. Nombre d’entre elles ont déjà trouvé preneur, certaines pour accueillir une villa, des commerces et des galeries marchandes, d’autres seulement dans l’espoir que les prix montent. Les moins chères sont mises à prix sur la plate-forme OpenSea, spécialisée dans la vente de NFT, autour de 1,5 ethereum (une des principales cryptomonnaies), soit l’équivalent de 1 500 €. D’autres affichent, compte tenu de leur emplacement, des prix de vente de plus de 150 000 €, l’équivalent de 100 m2viabilisés sur l’île de Ré...
Cryptomonnaies et NFT
Le métavers ne se distingue pas uniquement par son caractère immersif, il signe également le retour de la propriété et du commerce traditionnel, ce que les deux précédentes versions du web n’avaient pas permis. En cause : la cryptomonnaie et les NFT. La cryptomonnaie, associée au métavers, offre un système de paiement captif, décentralisé et indépendant des États et des systèmes bancaires. Les NFT (jetons non fongibles) permettent de rendre unique une entité numérique (une œuvre, une image, un son, une vidéo…) et donc de créer à la fois de la rareté et de la sécurité. Acheter et vendre en toute quiétude et en assurant une traçabilité totale de chaque transaction devient ainsi possible. Sur le papier, le métavers est infiniment plus sûr que le monde réel. Et les entreprises ne s’y trompent pas. SelonLes Échos, près de 200 marques, d’AXA à Carrefour en passant par Warner Music, ont déjà pris pied dans le monde virtuel de The Sandbox, dont la valorisation, selon Bloomberg, dépasserait désormais 4 milliards de dollars.
Le luxe en première ligne
Aujourd’hui, le secteur le plus représenté dans le métavers est celui du luxe.
Protégées de la contrefaçon par les NFT, les plus prestigieuses maisons de la planète n’ont pas hésité à traverser l’écran. En 2021, Dolce & Gabbana a lancé une collection de 9 NFT, dont certains étaient associés à des créations physiques. Une opération qui s’est soldée par une recette de 6 millions de dollars pour la maison italienne. Cette même année, Ralph Lauren annonçait avoir vendu pas moins de 200 000 produits numériques sur le métavers et Gucci s’illustrait en vendant sur Roblox (un métavers tiré d’un jeu qui accueille 45 millions d’utilisateurs) une image de sac certifiée par un NFT plus chère que le sac lui-même. C’est également sur Roblox que Nike a ouvert, en novembre dernier, « Nikeland », un espace portant ses couleurs dans lequel les avatars peuvent faire du « sport », mais surtout acheter des baskets et des vêtements produits par la firme. Et le luxe, même virtuel, a un prix : comptez entre 1 800 et 150 000 € pour offrir une paire de baskets maison à votre avatar et lui permettre d’être au top de la mode digitale !
Autre signe des temps, la première édition de la Metaverse Fashion Week a été organisée la dernière semaine de mars 2022 sur le métavers Decentraland. Elle a réuni 70 grandes marques de luxe comme Paco Rabanne, Tommy Hilfiger, à nouveau Dolce & Gabbana qui, devant un public d’avatars conquis, ont fait défiler des modèles virtuels arborant leurs dernières (ou premières) créations de vêtements numériques. Non loin de l’espace de défilé, une enfilade de magasins de luxe, dans un pur style « Avenue Montaigne », offraient aux visiteurs la possibilité d’acheter les produits virtuels ou réels de toutes les maisons de couture présentes.
Des freins à lever
La concurrence entre les métavers et l’accès aux outils permettant de vivre une expérience immersive freinent le développement du web 3.0.
Toutes les ventes réalisées sur les plates-formes de métavers donnent lieu à une commission. Cette dernière est de 5 % sur The Sandbox et pourrait atteindre 40 % sur Horizon Worlds, le métavers de Meta (anciennement Facebook), sauf si ce dernier se trouve, d’ici sa sortie, cet été, contraint de s’aligner sur la concurrence. Un système de commission qui s’applique, au bénéfice de la plate-forme, sur les ventes de « neuf » comme sur les ventes « d’occasion ». Car, grâce à la traçabilité des opérations, la commission peut être due au créateur sur toutes les reventes de ses produits, si toutefois cela a été prévu dans le contrat. Une précaution que tous les vendeurs de biens de luxe ou d’œuvres d’art, dont les cours flambent régulièrement sur les marchés de seconde main, ont, sans surprise, pris soin de prendre. Une raison de plus pour les commerces de s’impliquer dans le métavers, même si plusieurs freins restent encore à lever. Le premier est l’absence d’interopérabilité entre les plates-formes. Comment, dans de telles conditions, imaginer qu’un utilisateur de plusieurs métavers puisse investir plus d’une centaine d’euros dans un accessoire qui ne pourra pas sortir du monde virtuel dans lequel il a été acheté ? Cette question incite à l’attentisme nombre d’entreprises qui constatent déjà que dans la guerre que se livrent les métavers, certains grands acteurs s’ingénient déjà à rendre compliquée voire impossible l’interopérabilité des différents univers virtuels.
Le deuxième frein concerne la maturité du marché. Si chacun est persuadé que les métavers préfigurent un nouveau monde économique, personne ne sait si les proto-métavers d’aujourd’hui feront partie des leaders de demain. Y investir reste encore très risqué, sans parler du fait qu’ils regroupent, actuellement, comme seule clientèle solvable, des geeks fortunés. Si cela fait l’affaire des marques de luxe et des publicitaires, cela ne peut satisfaire des entreprises visant des cibles plus larges.
Enfin, l’adoption massive des métavers ne pourra s’opérer que lorsque les outils qui permettent une expérience immersive seront au point (casques de réalité virtuelle, lunettes et lentilles de réalité augmentée, gants haptiques…), suffisamment confortables pour être portés plusieurs heures et, surtout, bon marché…
Retour sur la sauvegarde des données de l’entreprise
Adopter une politique de sauvegarde des données reste le meilleur moyen de réduire l’impact d’une attaque informatique ou d’une destruction de matériel.
Une attaque informatique, un incendie, un vol ou une destruction de matériel peuvent rendre inaccessibles ou corrompre des données essentielles au fonctionnement de l’entreprise. Mettre en place un système de sauvegarde opérationnel est la seule parade efficace. Rappel des principales règles à suivre.
Identifier les données critiques
Sauvegarder toutes les données de l’entreprise n’est pas utile. Seules celles qui sont importantes pour son fonctionnement (données clients, données techniques, savoir-faire de fabrication, fiches métiers…) ou qui doivent être conservées en vertu de contraintes légales (contrats de travail, factures…) doivent être sauvegardées.
En outre, avec la multiplication des outils (PC portables, tablettes, smartphones, clés USB, objets connectés…), les données de l’entreprise sont de plus en plus éparpillées. Il convient donc de bien recenser tous ces outils et d’identifier les données qu’ils abritent afin de déterminer si elles doivent, ou non, faire l’objet d’une sauvegarde.
Réaliser des sauvegardes régulières
Les opérations de sauvegarde doivent être réalisées régulièrement afin que la copie soit le plus à jour possible au cas où elle devrait être restaurée en raison d’une perte, d’une destruction ou d’une corruption des données.
La fréquence de sauvegarde va dépendre de la taille de l’entreprise et surtout du volume de données produit chaque jour. Ce dernier variant principalement en fonction de l’activité de l’entreprise. Les TPE et PME de services, dont l’information constitue à la fois leur matière première et leur produit fini, devront adopter un rythme de sauvegarde soutenu (au pire hebdomadaire, idéalement journalier).
Un petit artisan dans le bâtiment ou un restaurateur pourra se contenter d’une opération de sauvegarde mensuelle. Opération au cours de laquelle il sauvegardera,a minima, sa base de devis, sa base de clients, ses échanges avec ses partenaires privés et publics et ses émissions de factures.
Un rythme de sauvegarde moins soutenu pourra être adopté pour des données qui évoluent peu comme, par exemple, les données techniques ou les fiches fournisseurs.
Conseil :
il convient de rappeler l’importance de disposer de plusieurs copies de la base de données originale. Ainsi, si un fichier corrompu est sauvegardé sans avoir été détecté, il sera possible d’utiliser une copie de sauvegarde plus ancienne pour en retrouver une version saine. Par exemple, en réalisant une copie par jour (lundi, mardi, mercredi, jeudi) et une de plus par semaine (semaine 1, semaine 2…), l’on pourra revenir un mois en arrière avec moins de 10 copies différentes et ainsi accroître ses chances de disposer d’une base de données au sein de laquelle il sera possible de retrouver une version « saine » de tous les fichiers.
Tester les sauvegardes
Même si la quantité de données à sauvegarder est faible, le risque qu’un problème se produise lors de leur copie existe. Il est donc fortement conseillé de procéder régulièrement (une fois tous les 6 mois) à la restauration d’un ensemble de fichiers sauvegardés. Cet exercice présente aussi l’intérêt de s’assurer du bon état des supports de sauvegarde (la durée de vie de ces supports excède rarement 5 ans) et de la bonne maîtrise de la procédure de restauration.
Protéger les sauvegardes
Enfin, parmi les autres règles de prudence à respecter, il est recommandé de ne pas laisser les supports de sauvegarde connectés en permanence au réseau de l’entreprise (pour les préserver des attaques par rançongiciels), et de penser à les stocker dans un lieu sécurisé pour les protéger des vols et des incendies.
Attention à la confidentialité des données :
les fichiers sauvegardés, dès lors qu’ils abritent des données à caractère nominatif, doivent être administrés dans le respect du Règlement général sur la protection des données (RGPD). Leur confidentialité et leur protection doivent ainsi être assurées au même titre que les données originales dont ils sont tirés.
Sur quels supports ?
Les sauvegardes doivent permettre un accès simple et rapide aux données. On privilégiera des supports sur lesquels les informations ne sont pas compressées et donc directement lisibles. Il est possible de réaliser des sauvegardes sur des disques durs externes, des clés USB, ou encore en ayant recours à des prestataires extérieurs offrant des espaces de stockage de données en ligne (cloud).
Le renforcement de la protection contre les cyberattaques
L’Anssi préconise l’adoption de mesures préventives pour réduire les risques et les conséquences des cyberattaques.
L’invasion de l’Ukraine par la Russie s’est accompagnée d’une hausse des cyberattaques visant les entreprises occidentales. Raison pour laquelle l’Agence nationale de la sécurité des systèmes d’information (Anssi) incite les entreprises à mettre en œuvre 5 mesures cyber-préventives prioritaires. Des mesures qu’il convient d’adopter rapidement et d’inscrire dans une démarche de « cybersécurité globale et de long terme », insiste l’Anssi.
1. Renforcer les procédures d’authentification
Afin de réduire le risque d’intrusion, l’accès au système d’information de l’entreprise doit être renforcé. À cet effet, l’Anssi préconise la mise en place d’un dispositif d’authentification multifacteur. Pour accéder au réseau, on combinera ainsi plusieurs facteurs d’identification, par exemple, un mot de passe robuste et un code reçu par SMS ou via une application dédiée. Généralement, ce code aura une durée de vie limitée à quelques minutes.
Dans cette configuration, le fait qu’un seul des facteurs utilisés soit connu d’un hacker ne lui permettra pas d’accéder au réseau ou au compte protégé. Ce dispositif de sécurité a été imposé à tous les établissements bancaires en 2019. L’Anssi recommande sa mise en place pour « les comptes particulièrement exposés, notamment ceux des administrateurs qui ont accès à l’ensemble des ressources critiques du système d’information et ceux des personnes exposées de l’entité (personnel de direction, cadres dirigeants, etc.) ».
Pour ceux qui souhaitent en savoir plus, l’Anssi propose sur son site un . Un document de 52 pages qui permet d’appréhender les enjeux et les conditions de mise en place et de gestion de ce type de dispositif.
2. Accroître la surveillance du réseau
Le temps de réaction est crucial en cas de cyberattaque. Plus rapide sera la réaction, moindres seront les dégâts. Mettre en place une surveillance quotidienne et globale du réseau est donc fortement conseillé afin d’être en capacité d’identifier sans retard une éventuelle compromission et de la traiter. Lorsqu’une surveillance globale n’est pas possible, l’Anssi propose une « centralisation des journaux des points les plus sensibles du système d’information. On peut lister, à titre d’exemple, les points d’entrée VPN, les bureaux virtuels, les contrôleurs de domaine, ou encore les hyperviseurs ».
Rehausser le niveau de vigilance, revient également, selon l’Anssi à systématiquement « inspecter » toutes les connexions anormales sur les contrôleurs de domaine et toutes les alertes apparaissant sur les solutions antivirus et EDR (Endpoint Detection and Response).
3. Ne pas oublier les sauvegardes
« Des sauvegardes régulières de l’ensemble des données, y compris celles présentes sur les serveurs de fichiers, d’infrastructures et d’applications métier critiques, doivent être réalisées », insiste l’Anssi. En rappelant que ces sauvegardes doivent être déconnectées du réseau pour ne pas être exposées en cas d’attaque du système informatique.
Attention, quelquefois des erreurs se produisent lors des opérations de sauvegarde réduisant ou anéantissant la possibilité de les restaurer (corruption des données lors du transfert ou de la compression, problème sur le support de stockage…). Aussi, les sauvegardes doivent être restaurées régulièrement afin de s’assurer que le dispositif utilisé par l’entreprise est fiable et qu’il remplira bien son rôle lorsqu’une restauration sera nécessaire suite à une cyberattaque.
4. Identifier les services critiques
Compte tenu de l’urgence, il faut prioriser les actions. À cette fin, l’Anssi conseille de réaliser un inventaire des services numériques de l’entreprise et de les classer en fonction de leur caractère critique. La protection des plus sensibles devant être renforcée en priorité. Par plus sensible, l’Anssi entend les services numériques dont le dysfonctionnement pourrait nuire à la continuité d’activité de l’entreprise. Dans ce cadre, « les dépendances vis-à-vis de prestataires doivent également être identifiées », insiste l’Anssi.
5. Préparer la gestion de crise
Une cyberattaque peut atteindre, plus ou moins fortement, le fonctionnement de l’entreprise. Il convient donc de se préparer à travailler en mode dégradé (applications hors d’usage, messagerie coupée, fournisseurs hors jeu…) « et dans certains cas, cela signifie revenir au papier et au crayon », précise l’Anssi.
Une cellule de crise doit ainsi être constituée et se tenir prête à mettre en œuvre différents scénarios d’urgence. L’objectif de cette cellule est de veiller à l’application d’un plan de continuité d’activité (PCA) et/ou de reprise informatique (PRI). Un plan élaboré pour permettre à l’entreprise, de continuer à fonctionner même en mode dégradé et à mettre en œuvre, le plus vite et le plus efficacement possible, les actions qui lui permettront de renouer avec une situation normale.
élaboré par l’Anssi et le Club des directeurs de sécurité et de sûreté des entreprises (CDSE) est librement téléchargeable sur le site de l’Anssi. Sur 80 pages, il revient sur les pratiques à mettre en place par les entreprises (PME-ETI) pour se préparer à affronter une crise cyber et pour bien réagir.
Les NFT revisitent la propriété numérique
De plus en plus utilisés dans le monde de l’art, les NFT permettent de certifier l’authenticité et le caractère unique d’une création numérique.
À en croire un récent sondage de l’Ifop, 75 % des Français n’ont jamais entendu parler des NFT. Une bonne raison de revenir sur cet outil particulier qui est en train de révolutionner le marché de l’art numérique et, plus largement, de préfigurer certains modes d’exercice de la propriété privée dans les futurs métavers.
Qu’appelle-t-on un NFT ?
Les NFT (non-fongible tokens ou jetons non fongibles) sont des certificats qui viennent garantir le caractère authentique et unique d’un fichier numérique. Il peut s’agir d’un fichier sonore ou d’une image fixe ou animée en deux ou trois dimensions (hologramme). Ces jetons, comme les cryptomonnaies, sont inscrits sur un réseau sécurisé (chaine de blocs ou blockchain). Ce réseau décentralisé assure leur immutabilité et leur traçabilité en cas de vente et de revente.
Qui les utilise ?
Pour le moment, c’est surtout le marché de l’art qui s’est emparé des NFT. Les créateurs trouvent dans cet outil la possibilité de donner un caractère unique à une information numérique par essence reproductible à l’infini. Concrètement, le NFT vient authentifier le fichier natif d’une création numérique en étant définitivement rattaché à lui via la blockchain sur laquelle il est inscrit. Le caractère unique que lui confère le NFT fera, si des acheteurs s’y intéressent, augmenter sa valeur même s’il existe des milliers de reproductions totalement identiques. On parle d’art crypto.
Peut-on avoir des exemples ?
En janvier 2022, le footballeur Neymar s’est offert deux NFT de deux dessins de la série des singes blasés (Bored Ape), qui en réunit 10 000. L’un des deux représente un singe portant des lunettes roses, un chapeau de fête conique en carton et soufflant dans une bulle de chewing-gum. Il remplace désormais son portrait sur son compte Twitter. Pour ces deux NFT, l’attaquant du PSG aurait déboursé la modique somme de 1,1 million de dollars.
En mars 2021, l’artiste Beeple (alias Mike Winkelmann) a vendu aux enchères chez Christie’s une œuvre numérique baptisée Everyday : The First 5 000 Days. Il s’agit d’un assemblage de 5 062 œuvres numériques créées depuis 2007 par l’artiste (une par jour). Réduites et disposées les unes à côté des autres, elles forment l’œuvre numérique globale. Authentifiée via un NFT, cette dernière a été vendue 69,3 millions de dollars. 6 mois avant cette vente, Mike Winkelmann n’avait jamais vendu d’œuvre.
Et à part le marché de l’art ?
Les NFT peuvent également intéresser les simples collectionneurs. Julian Lennon, le fils du leader des Beatles, a ainsi vendu 22 400 dollars, aux enchères (Julien’s Auctions et YellowHeart,), le 7 février dernier, le NFT associé à la photo qu’il a prise de la guitare que son père lui avait offert. Lors de cette même vente, il a cédé une photo (certifiée via un autre NFT) du célèbre manteau afghan qu’avait porté John Lennon sur le tournage de « Magical Mystery Tour » (adjugé également 22 400 $). Enfin, Julian Lennon a vendu 76 800 $ la version NFT du manuscrit de la chanson « Hey Jude » écrite par Paul McCartney en 1968. Mais attention, il reste propriétaire des objets (manuscrit, guitare et manteau). Les acheteurs ne sont propriétaires que du NFT et du fichier numérique auquel il est associé.
Le monde des jeux est également associé au NFT. Dans ces mondes virtuels, ils seront utilisés pour authentifier des personnages uniques (combattant, joueurs de foot…) ou certaines de leurs options (habits, pouvoirs…).
Certains personnages en 3D, destinés à jouer le rôle d’avatar dans les métavers, notamment celui que nous promet Meta (anciennement Facebook), sont déjà proposés à la vente sur des plateformes abritant des NFT.
Comment créer un NFT ?
Pour créer un NFT, il faut se connecter sur une plateforme numérique spécialisée (OpenSea, Rarible, Mintable…) et y inscrire son fichier numérique (en y associant, notamment, son nom et son prix). Il faut également rédiger les clauses de cession (smart contract) qui prévoient les droits que l’acheteur détiendra sur l’œuvre. Ces clauses peuvent, par exemple, prévoir, s’il s’agit d’une ouvre artistique, que les droits d’auteur (droits de reproduction et de représentation) seront cédés à l’acheteur du NFT ou encore établir une règle suivant laquelle l’auteur du fichier touchera un pourcentage sur toutes les opérations de revente (droit de suite).
Enfin, le créateur du NFT doit disposer d’un compte sur la blockchain de cryptomonnaie associée à la plateforme (l’Ethereum pour OpenSea, par exemple). Un fois créé, le NFT sera vendu aux enchères en ligne.
Quant à la plateforme qui abrite le NFT, elle perçoit un pourcentage sur la vente du certificat et peut également prélever des frais lors de l’inscription.
Comment les Français appréhendent les NFT ?
22 millions d’individus, dont plus de la moitié étaient âgés de moins de 40 ans, se sont connectés à la vente de The First 5 000 Days de Beeple, selon Christie’s. Les jeunes, plus au fait du fonctionnement des nouveaux médias, semblent donc plus intéressés par les NFT que leurs ainés.
Une récente enquête réalisée par l’Ifop pour Cointribune.com (janvier 2022) ne dit d’ailleurs pas autre chose. Selon elle, si seuls 20 % des plus de 35 ans ont déjà entendu parler des NFT, 51 % des 18-24 ans affirment connaître ces outils.
44 % des Français appartenant à cette tranche d’âge (et 47 % des 25-34 ans) disent, par ailleurs, avoir déjà investi dans les NFT ou souhaitent le faire, contre seulement 23 % des plus de 35 ans.
Voiture de fonction : faut-il passer à l’électrique ?
Hybrides non rechargeables, rechargeables ou 100 % électriques ? Lequel de ces types de véhicules vient répondre à vos besoins professionnels ?
En septembre 2021, la Tesla Model 3 s’est hissée en haut du podium du marché automobile européen, avec près de 25 000 unités écoulées. Une première pour une voiture 100 % électrique, qui démontre la maturité de ce type de motorisation et le fait qu’il réponde de plus en plus à la demande des automobilistes. Une bonne raison de faire le point sur l’offre de véhicules électriques et de se demander s’ils pourraient prendre la place de vos véhicules de fonction.
De l’hybride à l’électrique
La famille des véhicules dits « électriques » est assez étendue et les mix de motorisations très variés. Aussi, pour ne pas s’y perdre, nous réduirons cette dernière aux seuls véhicules capables de rouler, même sur une courte distance, uniquement à l’électrique. Trois catégories de motorisations correspondent à cette définition.
Les hybrides non rechargeables
Ces véhicules abritent deux moteurs : le premier, le plus puissant, est thermique (essence ou diesel) et le second est électrique. Ce dernier, associé à une batterie dont la capacité est généralement inférieure à 5 kWh, entraîne le véhicule à faible vitesse. Ainsi, jusqu’à ce que la batterie soit vide et tant que la voiture ne dépasse pas 40 ou 50 km/h, c’est le moteur électrique qui est à l’œuvre. Au-delà, le moteur thermique prend le relais. En cas de besoin de puissance (pour réaliser un dépassement, par exemple), les deux moteurs sont prévus pour fonctionner brièvement de manière simultanée. La batterie est rechargée par le moteur thermique lorsqu’il est en fonctionnement, mais également par l’énergie récupérée au freinage.
Les hybrides rechargeables
Là encore, un moteur thermique et un moteur électrique cohabitent sous le même capot. Seulement, à la différence des hybrides non rechargeables, les rechargeables sont capables de rouler à l’électrique au-delà de 50 km/h (le moteur est plus puissant) et sur une distance pouvant aller, selon les modèles, jusqu’à 80 km, notamment grâce à une batterie de grande capacité (jusqu’à 18 kWh). Les deux moteurs ont aussi vocation à fonctionner ensemble et, cette fois, de manière plus durable. La batterie est rechargée à la fois en roulant (moteur thermique et récupération au freinage) et via une prise électrique.
Les 100 % électriques
Évolution ultime, ces véhicules ne sont dotés que d’une motorisation électrique dont la puissance peut varier de 33 kW (45 CV) pour une Dacia Spring entrée de gamme à 750 kW (1 020 CV) pour une Tesla Model X. Leurs batteries, qui récupèrent l’énergie du freinage, doivent être rechargées via une prise électrique.
Quel temps de recharge ?*
| Renault Zoé (R135) | Tesla Model 3 (Performance) | Peugeot 3008 hybride rechargeable | |
| Prise domestique (1,8 kW) | 17h30 | 25h30 | 3h30 |
| Prise sécurisée domestique (3,7 kW) | 10h30 | 12h30 | 1h45 |
| Borne domestique (7,4 kW) | 4h15 | 6h15 | 1h45 |
| Borne publique (22 kW) | 1h30 | 4h00 | - |
| Borne publique rapide (50 kW) | 0h45 | 0h55 | - |
*Recharge de 20 à 80 % de la batterie
De la consommation à l’autonomie
Les véhicules hybrides rechargeables, avec leur double motorisation, n’ont, sur le papier, rien à envier à leurs concurrents thermiques en termes de consommation, bien au contraire. À en croire les comparatifs régulièrement publiés par la presse technique, les hybrides non rechargeables, sur parcours mixtes et à puissance comparable, afficheraient des consommations moyennes de 10 % inférieures à celles des thermiques. Un chiffre qui passerait à 20 % avec les hybrides rechargeables. Mais attention, ces véhicules, compte tenu de leur double motorisation et de la présence des batteries, sont beaucoup plus lourds que les modèles thermiques. S’ils sont utilisés quand leurs batteries sont « vides », leur consommation atteint des sommets, surtout lors des parcours urbains. Il ne faut donc jamais oublier de les recharger.
Pour les 100 % électriques, ce n’est plus la consommation, mais l’autonomie qui doit être scrutée. Et pour une raison simple : il faut passer au moins 50 minutes branché à une borne publique de recharge rapide pour « faire le plein » d’une voiture dotée d’une batterie de 50 kWh (e-208, Tesla Model 3, Zoé…). Un plein qui, en fonction du modèle choisi et de la capacité de sa batterie, permettra de parcourir entre 250 et 600 km, selon les constructeurs. En réalité, ces chiffres « moyens » vont considérablement varier à la baisse sous l’effet du froid (on estime la perte d’autonomie entre 20 % et 30 % lorsque la température passe sous zéro), du style de conduite adopté, mais aussi du type de parcours. Il faut noter ici que, contrairement aux thermiques dont la consommation s’envole en ville, les électriques performent en cycle urbain mais s’épuisent vite sur route et autoroute.
Une Tesla Model 3 (Performance) pourra ainsi parcourir, selon son constructeur, 740 km en ville, à 30 km/h, et seulement 370 km sur autoroute (120 km/h). De son côté, la Volkswagen e-Golf offre une autonomie de 300 km en ville et de 150 km sur autoroute. Ces voitures restent donc avant tout des urbaines. Et compte tenu de leur faible autonomie et des temps de recharge assez longs, elles ont encore du mal à rivaliser avec les thermiques classiques et les hybrides pour un usage routier intensif.
Comparatif des différentes motorisations
| Hybride non rechargeable | Les plus : . Consommation limitée, surtout en ville. Pas de recharge Les moins : . 10 % plus chère qu’une thermique |
| Hybride rechargeable | Les plus : . Capacité à rouler en mode électrique à différentes vitesses. Autonomie électrique autour de 50 km. Consommation moyenne 20 % inférieure à celle d’une thermique sur parcours mixte Les moins : . 20 à 30 % plus chère qu’une thermique. Plus lourde qu’une thermique. Très gourmande « batteries vides » |
| 100 % électrique | Les plus : . Silencieuse et non polluante. Coût du « plein » réduit Les moins : . Temps de recharge important. Autonomie encore trop réduite, sauf usage urbain. Prix encore élevé. Nécessité d’installer une borne de recharge chez soi |
Des avantages fiscaux
En termes de prix, les hybrides sont 10 à 30 % plus chères que les thermiques classiques offrant des performances comparables (puissance, niveau d’équipement). Pour les électriques, la comparaison est plus délicate, mais pour vous donner une idée, vous devrez débourser 39 000 € pour une e-Golf, 32 000 € pour une Renault Zoé ou 43 000 € pour une Tesla Model 3 de base.
Sachez d’ailleurs qu’acheter ou louer, puis utiliser une voiture de fonction « propre » est fiscalement moins pénalisant que lorsqu’il s’agit d’un véhicule thermique. Sans parler du malus écologique qui frappe l’achat ou la location des véhicules « polluants » émettant au moins 133 g de CO2 par km (chiffres 2021) et dont le montant peut atteindre 30 000 €.
Ainsi, les plafonds de déductibilité de l’amortissement (ou des loyers) sont plus élevés pour les voitures électriques (30 000 €) et les voitures hybrides rechargeables (20 300 €) que pour les voitures thermiques (18 300 €, voire 9 900 € pour les plus polluantes). En outre, une exonération de taxe sur les véhicules de sociétés, totale ou partielle, s’applique. Sans oublier que la TVA sur l’électricité est déductible à hauteur de 100 % (contre 80 % pour le gazole, l’essence et le superéthanol E85).
Enfin, l’achat ou la location longue durée d’un véhicule neuf peu polluant ouvrent droit à une aide financière de l’État. Pour une voiture électrique, ce bonus est fixé à 27 % du prix TTC, dans la limite de 6 000 € pour les personnes physiques et de 4 000 € pour les personnes morales. Une aide ramenée à 2 000 € lorsque le prix est compris entre 45 000 € et 60 000 €. Quant aux hybrides rechargeables, leur prix ne doit pas excéder 50 000 € pour un bonus s’élevant à 1 000 €. Et si c’est pour vous l’occasion de mettre à la casse un véhicule thermique ancien, vous pouvez cumuler le bonus avec une prime à la conversion (jusqu’à 5 000 €).
Zoom sur la crise des semi-conducteurs
La pénurie mondiale de semi-conducteurs vient freiner le redémarrage de certaines entreprises industrielles. Elle ne devrait pas prendre fin avant 2023.
Malgré la reprise économique, nombre d’industries tournent au ralenti en raison d’une pénurie de puces électroniques. Les constructeurs automobiles sont particulièrement touchés, notamment en Europe. Un continent qui, une fois de plus, se trouve fortement pénalisé en raison de sa dépendance aux entreprises asiatiques. Six questions pour mieux appréhender les raisons et les conséquences de cette crise.
Qu’appelle-t-on un semi-conducteur ?
Un semi-conducteur est un matériau qui a pour spécificité d’être plus ou moins conducteur de courant électrique. Cette conductivité dépend des matières premières qui entrent dans sa composition (silicium, germanium, carbure de silicium…) et de son processus de fabrication (introduction d’impuretés pour modifier les propriétés électriques du semi-conducteur).
Les semi-conducteurs prennent la forme de plaques ultrafines que l’on vient empiler les unes sur les autres. On peut les comparer à des transistors microscopiques. Ils sont utilisés pour produire des puces électroniques qui, elles-mêmes, équipent nombre d’appareils que nous utilisons chaque jour (voitures, avions, électroménager, smartphones, objets connectés, montres, jouets…).
Qui les fabrique ?
Produire des semi-conducteurs est un processus complexe qui nécessite des investissements énormes. Raison pour laquelle peu d’entreprises dans le monde sont en mesure de le faire et pourquoi la plupart des fabricants de puces électroniques sous-traitent cette activité à des fonderies très spécialisées.
La plus importante, TSMC, est basée à Taïwan. À elle seule, elle produit plus de 50 % des semi-conducteurs de la planète et détient 85 % du marché mondial des semi-conducteurs mesurant moins de 7 nm. Plus les semi-conducteurs sont fins, et plus il devient possible d’en empiler au sein d’une puce électronique. Et plus une puce contient de semi-conducteurs, plus elle est puissante. C’est pourquoi ces semi-conducteurs ultrafins sont très prisés par les fabricants de processeurs équipant des matériels de pointe (ordinateurs, smartphones…).
Samsung, le Coréen, est également capable de produire ce type de semi-conducteurs. Côté américain, Untel a annoncé la fabrication de ses premières puces en 7 nm pour 2023. Quant à IBM, il devrait lancer un processeur de cette catégorie destiné à ses serveurs d’ici la fin de l’année et a récemment annoncé être en mesure de produire une feuille de semi-conducteur épaisse de seulement 2 nm. Cela permettrait, selon IBM, d’accroître de 45 % les performances d’un semi-conducteur de 7 nm et de réduire de 75 % sa consommation d’énergie. Aucune date de sortie de ces semi-conducteurs de 2 nm n’a été précisée par IBM.
Pour mémoire, l’Europe, dont les entreprises de semi-conducteurs ne détiennent qu’un peu plus de 8 % du marché mondial, ne dispose d’aucune fonderie majeure capable de produire des composants de moins de 22 nm. Les deux leaders européens sont l’Allemand Infineon et le Franco-Italien STMicroelectronics.
Quelle est l’origine de la pénurie ?
Les raisons qui expliquent cette pénurie sont multiples. Il y a d’abord la crise du Covid-19, qui a ralenti la production de ces fonderies, alors que, dans le même temps, la demande de produits électroniques (ordinateurs portables, téléviseurs, consoles de jeu) s’envolait en raison du confinement et du télétravail.
À cela est venue s’ajouter une demande de puces électroniques dopée par le déploiement de la technologie 5G qui implique la production de nouvelles antennes mais surtout de nouveaux smartphones plus puissants. Sans parler du succès de plus en plus soutenu des objets connectés et du redressement rapide de la consommation intérieure chinoise, après la première vague épidémique.
Selon IDC, le marché des semi-conducteurs mondial a augmenté de 5,4 % en 2020, malgré la crise sanitaire, pour atteindre 442 milliards de dollars. Il pourrait atteindre 476 milliards de dollars en 2021 et connaître ainsi une hausse de 7,7 % sur ce dernier exercice.
Quelles sont les conséquences de cette crise ?
Cette pénurie entraîne, avant tout, des retards de production. C’est le cas dans l’informatique et l’électronique, où les délais de livraison s’allongent. Des retards qui s’accompagnent d’une hausse des prix induite par la « rareté » des produits disponibles et par la flambée des coûts du transport maritime (l’indice composite de Drewry qui mesure le coût de transport des conteneurs a augmenté de 290 % en un an).
Une inflation qui pourrait continuer à s’accroître compte tenu de l’annonce d’une augmentation de 10 à 20 % de ses prix par TSMC.
Pourquoi l’automobile est-elle si touchée ?
Dans l’automobile, cette crise a contraint des constructeurs de premier plan à mettre temporairement à l’arrêt certaines de leurs usines. Ce fut le cas, notamment, du leader mondial Toyota, qui, au cours du mois de septembre dernier, a dû réduire sa production de 40 %. Un coup de frein qui est venu affecter ses sites chinois, américains, européens mais également japonais. Sur l’archipel, 14 usines ont ainsi été placées à l’arrêt ou ont vu leur fonctionnement fortement ralentir.
En réalité, exception faite de Tesla, les plus gros constructeurs automobiles ont été contraints de revoir leur production 2021 à la baisse en raison de la pénurie de semi-conducteurs. Renault prévoit ainsi une perte de production de 500 000 véhicules en 2021 et Stellantis (PSA, Fiat-Chrysler) de 1,4 million de véhicules. De son côté, Volkswagen vient d’annoncer un manque à produire de 600 000 véhicules sur le 3e trimestre 2021 et ne table plus que sur une production annuelle proche de celle de 2020. Année de crise qui avait vu ses ventes baisser de 15,2 % par rapport à 2019.
Pour le cabinet IHS Markit, l’impact des pénuries, et principalement celle de semi-conducteurs, devrait faire chuter la production mondiale de véhicules de 12 % en 2021, soit un manque à produire de 10,6 millions d’unités.
Pour mémoire, plus de 1 000 puces électroniques sont nécessaires à la fabrication d’un véhicule thermique (et encore plus pour un hybride ou un 100 % électrique). En outre, nombre des puces utilisées, moins performantes que celles destinées à l’informatique et aux équipements high tech, sont massivement assemblées, contrôlées ou encapsulées, à bas coût, dans les pays comme la Malaisie ou le Vietnam. Des pays dans lesquels la circulation du Covid-19 impose depuis des mois de fortes restrictions sanitaires. La situation ne devrait donc pas s’arranger avant, d’une part, une augmentation des capacités de production des principales fonderies de semi-conducteurs et, d’autre part, un véritable redémarrage des sous-traitants des constructeurs, qui ne pourra s’opérer qu’avec un retour sanitaire à la normale dans le sud-est asiatique.
À quand un retour à la normale ?
Espéré pour la fin de l’été 2021, le retour à la normale n’interviendra pas, selon les experts, avant mi-2022. Interrogé par le Wall Street Journal, le 22 juillet dernier, Pat Gelsinger, le PDG d’Intel, voyait même cette pénurie perdurer jusqu’à 2023.
Au-delà de cette crise, et pour éviter qu’elle ne se reproduise, TSMC vient d’annoncer un investissement de 100 Md$ pour accroître sa production sur les 3 prochaines années. Intel devrait également construire trois nouvelles usines de semi-conducteurs dont deux aux États-Unis et une en Europe. Sur le vieux continent, cela représente un investissement de 93 Md$ sur 10 ans pour le fabricant américain. L’emplacement où se trouvera cette usine sera dévoilé d’ici la fin de l’année, précise l’AFP.
Quant aux Européens, ils souhaitent retrouver une certaine autonomie en doublant la capacité des usines de l’Union européenne d’ici 2030. Une ambition qui sera soutenue par une loi cadre européenne, « Européen Chips Act », dont l’objectif est de défendre la souveraineté technologique européenne. La France, à son niveau, va affecter 6 Md€ sur les 30 Md€ que compte son plan d’investissement, au secours d’une production nationale de semi-conducteurs renforcée.
Comprendre le bitcoin en 7 questions/réponses
Né en 2008 d’un créateur inconnu, le bitcoin ne cesse de se développer, suscitant autant l’intérêt que le rejet.
Qu’est-ce que le bitcoin ?
Le bitcoin est une monnaie électronique émise et contrôlée non pas par une banque centrale comme l’euro, le dollar ou le yen, mais par un algorithme présent sur un réseau informatique décentralisé (composé d’une multitude d’ordinateurs reliés les uns aux autres sans serveur). Pour ses créateurs, cette décentralisation fait du bitcoin une monnaie qui ne peut être instrumentalisée par les États. Sa valeur n’est donc définie que par l’offre et la demande. Le principe de fonctionnement du bitcoin a été rendu public en 2008 par Satoshi Nakamoto (on ignore qui se cache derrière ce pseudonyme).
Pourquoi dit-on qu’il est inviolable ?
Pour garantir l’inviolabilité du mécanisme de création de monnaie et des échanges réalisés en bitcoins, ses créateurs ont utilisé un algorithme, baptisé blockchain (chaîne de blocs), dont le fonctionnement est sécurisé et transparent. Sur le principe, chaque fois qu’une opération intervient en bitcoins, elle est validée, cryptée, puis enregistrée dans un bloc qui va être relié à la fameuse chaîne qui n’est autre qu’une base de données morcelée consultable par tous. Toutes les opérations réalisées en bitcoins depuis 2009 y sont enregistrées.
La fameuse blockchain empêche-t-elle les vols de bitcoins ?
Malheureusement non. La blockchain offre une protection robuste du cœur du système en enregistrant, de manière indélébile, toutes les créations de bitcoins et l’ensemble des échanges. En revanche, elle ne peut garantir le bon fonctionnement et l’inviolabilité des intermédiaires techniques (les fameuses plates-formes dont les plus connues sont Coinbase, Binance ou encore Kraken). Des plates-formes par lesquelles chaque acheteur/vendeur de bitcoins ou de toute autre cryptomonnaie va devoir passer. Une de ces plates-formes, Poly Network, spécialisée dans l’interopérabilité des blockchains, a d’ailleurs récemment été victime d’un piratage record de 600 M$. Et si tout s’est bien terminé cette fois pour les détenteurs de cryptoactifs utilisant cet outil (le pirate a rendu les cryptoactifs en contrepartie d’une prime de « bug » de 500 K$), ce n’est pas toujours le cas. En août 2016, Bitfinex, un autre intermédiaire, s’était ainsi fait dérober près de 120 000 bitcoins. L’équivalent de 69 M$ de l’époque et de 5,4 Md$ au cours actuel du bitcoin…
Existe-t-il d’autres cryptomonnaies que le bitcoin ?
Le bitcoin est la plus ancienne et la plus connue des monnaies électroniques, mais ce n’est pas la seule. CoinMarketCap, le site de suivi des prix des cryptoactifs en recensait, le 15 août dernier, pas moins de 6 061 pour un montant global de 1 990 Md$. Près de 44 % de ces presque 2 000 Md$ de capitalisation sont représentés par des bitcoins et 19 % par les Ethereums, autre cryptomonnaie vedette.
Que peut-on acheter avec des bitcoins ?
Un certain nombre de commerçants dans le monde acceptent les paiements en bitcoins. Toutefois, cet usage « monétaire » est devenu très minoritaire. Désormais, le plus souvent, le bitcoin est détenu, sur du long terme, comme un actif susceptible de générer de fortes plus-values à la revente. Et pour cause : son cours, défini par l’offre et la demande, est passé, en seulement 11 ans, de 0,01 $ à plus de 45 000 $. Une évolution astronomique (jalonnée de crises) qui aiguise l’appétit des investisseurs et inquiète certains économistes qui craignent qu’un jour, cette bulle n’éclate. Une bulle qui pesait, à la mi-août, autour de 860 Md$ !
Pour mémoire, la valeur des cryptomonnaies n’est pas toujours basée sur l’offre et la demande. Certains cryptoactifs, appelés « stablecoins » sont adossés à des actifs traditionnels ce qui les rend peu volatiles (même si aucune garantie de cours n’est offerte à leur détenteur). C’est le cas notamment du tether dont la valeur est en grande partie basée sur celle du dollar. Les tethers sont d’ailleurs régulièrement utilisés par les investisseurs dans les cryptoactifs comme valeur refuge. Selon CoinMarketCap, le tether est la cryptomonnaie qui enregistre les plus gros volumes d’échanges quotidiens devant le bitcoin.
Qui émet les bitcoins ?
L’administration de cette cryptomonnaie est « assurée » directement par certains utilisateurs. Concrètement, ces personnes mettent à disposition la puissance de calcul de leurs équipements informatiques. Cette puissance de calcul est alors utilisée pour réaliser les opérations de validation des transactions qui garantissent « l’inviolabilité » de la blockchain sur laquelle s’appuie la monnaie électronique. En contrepartie, ces « mineurs » (c’est ainsi qu’ils sont appelés) se voient attribuer des unités monétaires, créées pour l’occasion. Aujourd’hui, il existe un peu plus de 18,7 millions de bitcoins. Au total, 21 millions de bitcoins seront « frappés » à échéance 2140.
Est-ce que les bitcoins polluent ?
Le processus de validation des transactions réalisées en bitcoins nécessite, pour garantir leur inviolabilité, des calculs très lourds qui mobilisent de très nombreux ordinateurs reliés à la blockchain. Selon l’université de Cambridge, en 2021, la consommation électrique pour gérer le réseau bitcoin pourrait dépasser les 100 TWh, soit l’équivalent de 25 % de la consommation de la France !
Comment prévenir et déjouer les cyberattaques ?
La crise sanitaire n’a pas freiné les pirates informatiques. Selon le dernier baromètre de la cybersécurité des entreprises françaises réalisé par OpinionWay pour le Club de la sécurité de l’information et du numérique (Cesin), 57 % des entreprises interrogées ont été victimes d’au moins une cyberattaque en 2020. Illustration de quelques situations à risque et rappel des comportements à adopter pour y faire face.
Un simple courrier de relance
Le phishing ou hameçonnage est la première technique utilisée par les pirates pour attaquer les entreprises.
Laurent dirige la filiale d’un grand groupe de presse. Client du distributeur Amazon, il reçoit, par mail, une facture, portant son nom, l’invitant à régler un montant de 253 € correspondant à un achat réalisé quelques jours plus tôt. Comme il a regroupé ses comptes de messageries professionnelle et personnelle sur son smartphone professionnel, il ne s’étonne pas de recevoir une telle relance sur ce smartphone. En revanche, comme il ne se souvient pas d’avoir réalisé cet achat, il n’hésite pas à cliquer sur la pièce jointe associée au courriel pour en savoir plus. Sur le coup, rien ne se passe. Mais quelque temps plus tard, il constatera que sa base de contacts a été pillée et que chacun d’eux a reçu un SMS, les appelant à l’aide, signé de son nom et contenant un lien. Ceux qui auront la mauvaise idée de cliquer sur ce lien téléchargeront, à leur tour, un malware qui prendra la main sur leur carnet d’adresses et usurpera leur identité.
Comment se protéger ?
L’hameçonnage (phishing) est une technique qui permet à des pirates de se faire passer pour une banque, un fournisseur ou encore une institution publique auprès d’une entreprise ou d’un particulier afin d’obtenir des informations sensibles (coordonnées bancaires, mots de passe…) ou d’introduire un logiciel malveillant dans un système informatique.
Pour réduire le risque d’être victime de ce type d’attaques, il faut :- toujours vérifier l’identité de l’expéditeur (en l’occurrence, l’adresse de l’expéditeur n’était pas Amazon.com mais Amazoon.com. En outre, le courriel est arrivé sur l’adresse professionnelle de Laurent. Une adresse inconnue d’Amazon) ;- ne jamais cliquer sur une pièce jointe ou un lien intégré dans un mail suspect (Laurent n’avait rien commandé chez Amazon depuis des mois. Il n’avait donc aucune raison de recevoir une relance) ;- ne jamais communiquer d’informations sensibles (mots de passe, coordonnées bancaires…) suite à une demande par mail ou SMS.
Une vieille machine bien pratique
Nos ordinateurs personnels sont, souvent, moins bien protégés que ceux de l’entreprise. Les utiliser pour réaliser une tache professionnelle n’est donc pas recommandé.
Marie dirige le bureau d’études d’une PME spécialisée dans la production de systèmes de freinage pour les automobiles. Confinée chez elle comme des millions de Français en raison de la crise sanitaire, elle profite des beaux jours de mai 2020 pour travailler dans son jardin et peaufiner le dossier technique associé à la demande de brevet d’un nouveau type de plaquette qu’elle va bientôt déposer pour le compte de son entreprise. De peur d’abîmer son ordinateur portable professionnel quand elle travaille dans le jardin, elle a recours à une bonne vieille machine que toute la famille utilise et qui en a vu d’autres. Un jour, alors qu’elle tente d’ouvrir ses fichiers, elle s’aperçoit qu’ils ont disparu. Une analyse technique du vieil ordinateur montrera qu’ils ont été recopiés, puis supprimés par un pirate qui avait pris la main sur la machine en s’appuyant sur une faille logicielle non corrigée.
Comment se protéger ?
44 % des incidents de sécurité rencontrés par les entreprises en 2020 ont été causés par le « Shadow IT », autrement dit par l’utilisation d’une solution technique (cloud, courriel personnel...) ou d’un matériel (ordinateur, tablette, smartphone…) non approuvé par l’entreprise. Pour éviter de rendre vulnérable l’environnement informatique de son entreprise, il est important :- d’éditer une charte de bonnes pratiques rappelant, notamment, que seuls les matériels informatiques et les solutions fournis par l’entreprise peuvent être utilisés pour travailler ;- de veiller à ce que ces matériels et ces solutions soient aussi puissants, pratiques et efficaces que ceux dont dispose chaque collaborateur à titre privé. Car à défaut, il risque rapidement de ne plus les utiliser ;- de ne jamais oublier d’installer les mises à jour (logiciels antivirus, systèmes d’exploitation, navigateurs…) sur son ordinateur personnel.
Un logiciel gratuit qui coûte cher
Lorsque l’on est victime d’une attaque par rançongiciel, il est très difficile de récupérer les données qui ont été cryptées par le logiciel pirate.
Phillipe codirige une petite agence de design. Comme ses deux associés, il cumule les fonctions : il est à la fois commercial, créatif et responsable des achats.
Lors d’un déjeuner de travail, un de ses clients lui parle d’un nouveau logiciel de conception de logo. Avant de l’acheter, il souhaite le tester. Il ne trouve pas de version d’essai sur le site de l’éditeur, mais découvre un lien qui devrait lui permettre d’en télécharger une sur un forum de designers. Il clique sur le lien et installe, malgré lui, un rançongiciel sur sa machine. Le programme crypte immédiatement ses données et celles de tous les ordinateurs de l’agence connectés au réseau.
Comment se protéger ?
Les rançongiciels sont des programmes malveillants qui, une fois installés sur une machine (station, serveur…), vont emprisonner les données qui y sont stockées en les cryptant. L’utilisateur en est alors averti via un écran d’information et est invité à verser une rançon (souvent en cryptoactifs) en échange de laquelle les clés de déchiffrement lui seront, en théorie du moins, communiquées.
Les rançongiciels s’introduisent sur une machine en utilisant une faille technique ou en profitant d’une erreur humaine. Pour éviter d’être contaminé, il convient donc :- d’installer systématiquement les mises à jour sur les machines de l’entreprise (logiciels antivirus, systèmes d’exploitation, navigateurs…) ;- de ne jamais donner suite aux courriels suspects (non sollicités, envoyés par un expéditeur non clairement identifié...) ou incongrus (envoi d’une facture par un prestataire connu à la mauvaise personne, par exemple), et surtout de ne jamais ouvrir les pièces jointes qu’ils contiennent ;- de ne jamais télécharger des logiciels dont l’origine est inconnue ;- de ne jamais laisser un ordinateur inutilement allumé afin d’éviter qu’il soit contaminé en cas d’attaque ;- d’effectuer des sauvegardes régulières, car ainsi, même en cas d’impossibilité de déchiffrement, les pertes de données seront réduites.
Et en cas d’attaque, il est conseillé :- de débrancher immédiatement la machine contaminée du réseau de l’entreprise ;- d’alerter le service informatique de votre entreprise ou votre prestataire technique ;- de ne jamais payer la rançon, car cela n’offre aucune garantie et ne fait qu’encourager les pirates ;- de déposer plainte auprès des autorités.
Reprendre la main sur sa boîte de réception
Avec la crise sanitaire, notre courriel est devenu, plus que jamais un outil de travail essentiel. Y laisser s’entasser des centaines de mails inutiles est donc contre-productif et source d’erreurs. C’est pourquoi, il est fortement conseillé d’adopter quelques comportements simples et vertueux permettant d’éviter de se faire déborder et d’atteindre le « inbox zero ».
Trier chaque jour
Lorsque cela est possible, après avoir lu un mail, il faut le traiter dans la foulée.
Bien gérer une boîte mail est, sur le principe, très simple. Il suffit de la traiter comme une boîte aux lettres physique : l’ouvrir chaque jour, récupérer le courrier qu’elle contient pour en prendre connaissance, la débarrasser des prospectus qui l’encombre, puis une fois vide, la refermer.
Concrètement, dans le monde des boîtes numériques, cela signifie qu’il faut s’obliger, lorsque l’on consulte sa boîte mail, c’est-à-dire deux ou trois fois par jour au maximum, à systématiquement traiter tous les courriels qui sont arrivés dans la boîte de réception immédiatement après avoir pris connaissance de leur contenu (en les ouvrant ou simplement en découvrant leur objet) :- s’ils sont sans intérêt (pub, certaines newsletters, blague virale…), il faut les supprimer ;- s’ils appellent une action simple et rapide, c’est-à-dire une action ou une réponse ne réclamant pas plus de 5 ou 10 minutes de notre temps, il faut les traiter dans la foulée (puis les archiver) ;- enfin, s’ils ne sont qu’informatifs et n’appellent aucune action (typiquement le célèbre « en copie »), il faut les lire, puis les archiver ou les supprimer.
Un archivage ?
Concernant l’archivage, plusieurs approches sont possibles. La première consiste à utiliser la fonction du même nom qu’offre la plupart des outils de messagerie. Dans cette hypothèse, une fois archivé, le message sera transféré de la boîte de réception vers un espace de stockage qui reprend la structure de votre boîte mail. La seconde approche consiste à créer des répertoires thématiques (clients, année, zones géographiques, produits…), puis à y glisser-déposer les courriels une fois traités. Ici la mise en place est plus fastidieuse, mais les recherches des courriels « archivés » sont facilitées.
À noter :
le plus souvent, dès qu’un courriel tombe dans la boîte de réception, nous nous précipitons pour le lire. Cette pratique nous conduit à régulièrement interrompre notre travail. Pour ne pas être tenté, il est donc conseillé de désactiver les notifications (petits messages visuels et sonores qui nous signalent l’arrivée d’un courriel).
Limiter le volume des mails entrants
La plupart des courriels reçus chaque jour sont inutiles, quand ils ne sont pas indésirables. En limiter le nombre est donc salutaire. D’abord, il convient de se désinscrire des newsletters que l’on ne consulte jamais. Ensuite, il est conseillé d’activer le système anti-spam de sa messagerie. Enfin, il ne faut pas hésiter à mettre en place des filtres qui permettent de traiter automatiquement un message en fonction de son expéditeur ou de son objet. Selon le critère de tri choisi, les mails pourront être basculés, par exemple, dans un répertoire « clients » ou directement dans la corbeille.
Les courriels appelant un traitement plus complexe
Même les mails qu’il est impossible de traiter immédiatement doivent être retirés de la boîte de réception.
Une fois que les mails simples ont été traités, puis supprimés ou archivés, il ne doit rester dans la boîte de réception que les courriels qui ne peuvent être traités immédiatement. Il peut s’agir d’une demande complexe (opération longue ou impliquant la mobilisation d’autres personnes) ou encore, par exemple, du rappel d’un rendez-vous important (code pour une visioconférence prévue dans 3 jours, date limite pour réaliser un travail…).
Là encore, même s’il s’agit de mails importants, les laisser « traîner » dans la boîte de réception n’est pas la meilleure solution. Cette dernière ne doit pas devenir une « liste des tâches à effectuer ». Il est préférable de stocker ces courriels importants dans un répertoire dédié et de programmer un rappel via un outil spécifique comme un agenda électronique, par exemple.
Il faut ici noter que nombre de gestionnaires de courriels, comme par exemple Outlook ou Gmail, intègrent ce type de fonction et permettent ainsi d’associer une alerte à un courriel stocké dans un répertoire (envoi d’un message à une échéance définie pour rappeler qu’il faut traiter le courriel).
Aider les autres à gérer leur boîte de réception
Émettre des courriels inutiles, non seulement, pollue, mais en plus encombre la boîte de réception des destinataires.
Si chaque jour nous pestons en supprimant les mails inutiles qui viennent s’entasser dans notre boîte de réception, c’est bien qu’ils nous ont été adressés par quelqu’un. Une bonne raison d’éviter, à notre tour, d’encombrer les boîtes de nos destinataires. Et pour y parvenir, rien de plus simple. Il suffit de renoncer à ces envois. Il peut, par exemple, s’agir du célèbre « répondre à tous » qui, le plus souvent, est injustifié, du mail de confirmation de réception d’un autre mail ou de courriels envoyés en « copie » à des personnes qui ne sont pas concernées par le courriel, quand ce n’est pas le dossier traité.
Bénéficier d’une meilleure connexion grâce aux répéteurs Wi-Fi
Le développement du télétravail a mis en lumière la mauvaise couverture Wi-Fi de certains domiciles. Une difficulté que rencontrent de nombreuses personnes et qui peut être contournée via les répéteurs Wi-Fi.
Fonctionnement
Le répéteur joue un rôle de relais afin d’étendre la couverture d’un réseau Wi-Fi.
Le répéteur est un émetteur-récepteur qui permet d’étendre la couverture du réseau Wi-Fi. Placé stratégiquement dans les locaux de l’entreprise, il offre la possibilité de capter un signal de bonne qualité dans des pièces ou des espaces extérieurs qui, auparavant, étaient isolés. Il peut fonctionner comme un simple réémetteur. Dans cette hypothèse, il doit être positionné dans une zone où le signal initial est de bonne qualité (les répéteurs n’augmentant pas la puissance du signal, ils en étendent juste la portée). Les répéteurs dotés de prises éthernet (RJ45) peuvent également être utilisés comme point d’accès Wi-Fi à un réseau informatique filaire.
Différents modèles
Norme Wi-Fi supportée, débit, aspect comptent parmi les critères de choix des répéteurs.
Il existe plusieurs types de répéteurs. Les plus simples prennent la forme d’un boîtier qui vient se ficher sur une prise électrique. Lorsque le routeur ou la « box » est compatible WPS (système permettant un accès sécurisé et simplifié au Wi-Fi), « l’appairage » du répéteur avec le routeur est presque automatique. Dans les autres cas, il faut le paramétrer en passant par une application dédiée que l’on va installer sur son smartphone ou via le site web du fabricant. L’opération reste néanmoins assez simple à réaliser.
Certains de ces boîtiers sont équipés de voyants lumineux indiquant la puissance du signal reçu. Une option très pratique qui aide l’utilisateur à les positionner de manière optimale. Parfois, ils intègrent une prise électrique femelle, ce qui permet de brancher d’autres appareils dessus.
Enfin, il faut savoir qu’il existe également des packs de répéteurs (système s’appuyant sur un réseau maillé dit « Mesh »). Ces derniers sont composés d’une station qui est connectée par fil à la box, et de plusieurs répéteurs à disposer dans les locaux. L’intérêt de cette configuration est de permettre de placer plusieurs répéteurs sans qu’ils entrent en concurrence sur la même bande passante. Un meilleur débit est ainsi assuré.
À savoir :
certains répéteurs créent un nouveau réseau. Afin de s’y connecter, il faut donc paramétrer les machines des utilisateurs (portables, tablettes...). Ces dernières pourront ainsi, automatiquement se connecter sur le réseau le plus puissant en fonction de la pièce dans laquelle elles se trouvent.
Quelques critères de choix
Il existe de très nombreux modèles de répéteurs. Pour choisir le bon modèle, il faut s’assurer qu’il prend en compte les normes Wi-Fi les plus récentes et qu’il offre un débit au moins aussi élevé que celui de la box qu’il doit amplifier. En outre, l’objet étant assez visible, son aspect entre aussi dans les critères de choix. Enfin, le prix, la facilité de configuration et la sécurité doivent aussi être pris en considération. Avant d’acheter, il ne faut donc pas hésiter à consulter les études comparatives de la presse spécialisée.
Le prix
Il faut compter entre 200 € et 400 € pour s’offrir un de ces packs Mesh. Quant aux répéteurs classiques, ils coûtent de 20 € à 80 €.
Les boîtiers CPL
Pour accroître sa couverture Wi-Fi, il est également possible d’utiliser des boîtiers CPL.
Pour augmenter la couverture d’un réseau Wi-Fi dans des locaux, il est également possible d’utiliser des boîtiers CPL (courant porteur en ligne) Wi-Fi. Cette technologie consiste à s’appuyer sur le réseau électrique pour se connecter au réseau de l’entreprise ou du domicile. Concrètement, un boîtier relié à la box ou au routeur communique via le réseau électrique avec un autre boîtier qui émet en Wi-Fi. Lorsque le réseau électrique est de bonne qualité, cela fonctionne très bien. Ces kits (composés d’un boîtier de base et d’un boîtier Wi-Fi) sont vendus, en fonction des modèles, à partir de 50 €.
5 questions pour bien comprendre les enjeux de la 5G
Nouvelle technologie de communication, la 5G permet d’augmenter les débits et d’envisager de nouvelles applications mobiles.
Les premières antennes 5G ont fait leur apparition fin 2020 en France et leur déploiement devrait s’achever en 2025. Cinq questions-réponses pour comprendre les enjeux de cette révolution technologique.
1- Qu’est-ce que la 5G ?
Il s’agit tout simplement de la cinquième génération (d’où le G) des standards de téléphonie mobile. Elle vient non pas remplacer, mais succéder à la 4G qui, comme les standards précédents (2G, 3G), reste opérationnelle sur le territoire. La 5G offre un débit maximal théoriquement 10 fois supérieur à la 4G, soit 10 Gbit/s et une plus grande réactivité (temps de latence divisé par 10).Pour rappel, la 2G, déployée dans les années 1990 a été la première génération de téléphonie mobile s’appuyant sur une technologie numérique. Elle permettait de passer des appels téléphoniques, mais également de s’échanger des SMS. La 3G, apparue dans les années 2000, quant à elle, a permis le transfert de données haut débit offrant aux utilisateurs d’appareils de téléphonie mobiles la possibilité d’accéder au web. La 4G a encore amplifiée le phénomène faisant de nos smartphones et de nos tablettes des outils capables de visionner des vidéos en streaming et d’échanger des données personnelles ou professionnelles volumineuses. Entre la 2G et la 4G, le débit maximal théorique de transmission est passé de 9,6 kbit/s (milliers d’octets par seconde) à 1 Gbit/s (milliard d’octets par seconde).
2- À quoi ça sert ?
En permettant de transférer plus d’informations et plus vite, la 5G va améliorer les usages déjà existants, en favorisant, par exemple, le partage de fichiers très volumineux (vidéos 4K, programmes, fichiers graphiques…). Mais plus intéressant encore, cette technologie, en offrant la possibilité d’accueillir un plus grand nombre d’appareils connectés, donnera un coup d’accélérateur au développement de l’internet des objets (machines et véhicules autonomes, maisons et mobiliers urbains connectés, outils de télémédecine, systèmes de sécurité, agriculture connectée…). De nouveaux usages qui devraient révolutionner le fonctionnement de notre société.À cet égard, rappelle l’Autorité de régulation des télécommunications électroniques et des Postes (Arcep) sur son site « la 5G constitue aussi en enjeu de compétitivité pour le pays, bien au-delà du secteur des télécoms ». Un argument de poids à l’heure où nombre de décideurs français s’interrogent sur les stratégies à mettre en place pour freiner la désindustrialisation de l’Hexagone.
3- Faut-il changer de smartphone ?
Les smartphones développés pour la 4G ne sont pas compatibles 5G. Leurs utilisateurs devront donc en changer pour profiter des avancées du nouveau standard téléphonique. À l’inverse, la plupart des smartphones proposés aujourd’hui sur le marché, seuls ou associés à un abonnement téléphonique, sont compatibles 5G.Mais attention, la 4G continuera de fonctionner et même d’être déployée en France dans les années qui viennent. Personne n’est ainsi obligé de passer à la 5G.
4- Quel est le calendrier de déploiement ?
Les nouvelles fréquences sur lesquelles la 5G va d’abord être proposée ont été attribuées par l’Arcep aux quatre grands opérateurs français (SFR, Bouygues Telecom, Free et Orange), le 12 novembre 2020. Il leur revient, désormais, de déployer le réseau 5G sur l’ensemble du territoire. En termes de calendrier, chaque opérateur devra installer 3 000 nouveaux pylônes dans les 2 ans, puis atteindre les 8 000 en 2024 et les 10 500 en 2025. Tous les sites, y compris ruraux, devraient être couverts par la 5G au plus tard en 2030.Afin de permettre à chacun d’effectuer un suivi de ce calendrier, l’Arcep a mis en place un . Réactualisé chaque mois, il recense les installations de chaque opérateur et permet de les localiser sur une carte de France et dans chacune des régions.Sur cette même page du , il est également possible d’accéder à la carte de progression des déploiements de la 4G en France, depuis 2015 et dans chaque département.Plus largement, via la chacun peut mesurer le niveau de couverture offert par Orange, Free, SFR et Bouygues Telecom.
5- Les forfaits 5G sont-ils plus chers que les autres ?
Les forfaits déjà présentés par les opérateurs sont légèrement plus chers que les forfaits 4G. Mais la concurrence est tellement vive entre ces grands groupes, et le besoin de conquérir de nouveaux clients tellement fort, ne serait-ce que pour amortir l’achat des fréquences et des équipements, que leurs prix ne devraient pas augmenter davantage et pourraient même bientôt baisser. Cette forte concurrence fait de la France un des pays d’Europe où le prix des télécommunications mobiles est le plus bas.
Retour sur TousAntiCovid et ses concurrentes européennes
Alors que l’application StopCovid n’a jamais rencontré le succès espéré, la version améliorée de cet outil de traçage, rebaptisée TousAntiCovid, est parvenue à séduire 11 millions d’utilisateurs depuis son lancement le 22 octobre dernier. Un remarquable résultat qui nous incite à revenir sur son fonctionnement et sur le destin de ses concurrentes allemandes ou italiennes.
Les fonctionnalités de TousAntiCovid
TousAntiCovid est une application destinée à identifier les personnes qui ont été en contact avec un malade du Covid-19 et à les alerter.
La fonction principale de TousAntiCovid est d’alerter son utilisateur lorsqu’il a été en contact avec une personne porteuse du virus. Concrètement, une personne testée positive va renseigner l’application, permettant à cette dernière d’alerter toutes les personnes elles-mêmes équipées de TousAntiCovid qui se sont trouvées, dans les jours précédents, à moins de 1 mètre d’elle plus de 5 minutes ou plus de 15 minutes à moins de 2 mètres.
Pour permettre l’identification des éventuels contacts, l’application TousAntiCovid détecte et enregistre, via le réseau bluetooth, tous les smartphones qui se trouvent à proximité de l’appareil sur lequel elle est installée. Mais attention, rappellent les concepteurs de TousAntiCovid, les données ainsi stockées ne permettent pas de connaître l’identité « d’un utilisateur de l’application, ni qui il a croisé, ni où ni quand ». La vie privée des utilisateurs est donc protégée, affirment les pouvoirs publics. Un sujet important car c’est en grande partie par crainte de voir leur vie privée violée que les Français avaient rejeté StopCovid, la première application de contact tracing mise en place par la France en juin dernier.
De nouveaux services
Au-delà du changement de nom, la nouvelle version de l’application propose une série de nouvelles fonctionnalités de conseil et d’information, non seulement générales mais aussi localisées. On trouve ainsi une « carte météo du virus » permettant à l’utilisateur de se géolocaliser afin de consulter, en temps réel, des informations sur la circulation du Covid-19 dans une ville, un département ou une région. Avec la possibilité d’afficher sur une carte les centres de dépistage les plus proches. Autre nouveauté : la faculté de remplir directement et de générer les attestations de déplacement dérogatoire nécessaires pour circuler pendant un confinement et les couvre-feux.
Une meilleure gestion de la batterie
Enfin, changement de paradigme aussi sur les consignes d’utilisation : pour préserver la batterie des smartphones, TousAntiCovid n’est plus actif en permanence contrairement à StopCovid. Ainsi, l’utilisateur doit lancer manuellement l’application avant de se rendre dans une zone d’affluence (transports en commun, commerces, lieux de travail…) ou d’assister à une réunion privée. TousAntiCovid fonctionne sur iOs (iPhone d’Apple) et sur Android. Elle est téléchargeable sur les plates-formes Google Play Store et Apple Store.
D’autres applications en Europe
Il existe d’autres applications de contact traçing en Europe. Certaines sont compatibles entre elles, d’autres non.
La France a décidé de faire bande à part lorsque la création de StopCovid a été décidée au printemps dernier. La raison : ne pas utiliser les protocoles techniques d’Apple et de Google. Des multinationales souvent pointées du doigt pour leur propension à s’approprier les données personnelles de leurs utilisateurs. D’autres pays n’ont pas eu ces craintes et se sont appuyés sur leurs solutions techniques. Cela leur a permis de sortir des applications plus rapidement, mais aussi de les rendre compatibles entre elles. L’italienne Immuni, l’allemande Corona-Warn-App, l’irlandaise Covid Tracker ou encore l’espagnole Radar Covid partagent, ainsi qu’une dizaine d’autres applications européennes, la même base technique, ce qui permet à leurs utilisateurs nationaux de bénéficier d’un suivi chez eux, mais également dans plusieurs pays étrangers. Contrairement à ces pays, la Suisse et la Hongrie, comme la France, ont fait le choix de développer des applications « maison » non compatibles.
Des succès mitigés
Pour fonctionner à plein, les applications de contact tracing doivent être utilisées par un très grand nombre de personnes. Ce n’est qu’à ce prix qu’il devient possible d’identifier et d’avertir les cas contacts afin de les inciter à s’isoler dans le but de rompre une chaîne de contamination. Sur ce point, plusieurs applications ont rencontré le succès en Europe. C’est le cas notamment d’Immuni, l’application italienne qui, après un joli départ suivi d’une montée en charge progressive, a connu un pic de téléchargements (plus de 150 000 téléchargements par jour) au mois d’octobre lors de l’emballement de la deuxième vague de Covid-19. Mais depuis, l’engouement a laissé place à des critiques de plus en plus vives sur l’efficacité du dispositif, notamment sur le suivi des cas ainsi identifiés par les autorités de santé. Résultat, l’application ne séduit plus que quelques milliers d’Italiens chaque jour et plafonne à 10 millions d’utilisateurs, soit 19 % des Italiens de plus de 14 ans. Un ratio encore trop faible d’autant qu’il varie fortement d’une région à l’autre (25 % dans le Val d’Aoste contre 12 % en Campanie).
Même scénario en Allemagne. Lancé le 16 juin dernier, Corona-Warn-App connaît un succès immédiat et parvient à rallier 18 millions d’Allemands en à peine 3 mois. Depuis, le rythme des téléchargements s’est stabilisé pour atteindre 23,5 millions au tout début du mois de décembre, soit moins d’un tiers de la population adulte allemande. Un tassement qui s’explique, notamment, par la défiance d’une partie de la population envers les solutions techniques de Google. Défiance qui a incité plusieurs développeurs allemands à mettre au point et à proposer, depuis le 9 décembre, une variante de l’application qui n’utilise plus le protocole de communication de Google, mais un composant open source. Une nouvelle application qui permettra peut-être une nouvelle envolée des téléchargements.
Mais au-delà du nombre de téléchargements, l’efficacité de ces applications se trouve affectée par un autre point : la possibilité de signaler ou non que l’on est atteint du Covid-19. Une liberté fondamentale qui n’aurait pas dû constituer un frein compte tenu de l’anonymisation des données mise en place dans les différents systèmes. Mais dans la réalité, les craintes d’exposition de ces informations personnelles demeurent et, en Allemagne, par exemple, ont conduit, selon les estimations du 4 décembre de l’Institut Robert Koch, à peine la moitié (54 %) des personnes touchées par le Covid-19 à signaler leur situation sur Corona-Warn-App. Concrètement, depuis le lancement de cette application, en juin dernier, un peu plus de 95 000 personnes ont signalé leur situation sur 175 000 cas positifs identifiés. Plus de 79 000 chaînes de contamination n’ont ainsi, pour cette seule raison, pas pu être identifiées.
TikTok, le réseau social qui séduit les jeunes et dérange les États
L’application TikTok, créée en Chine par la société ByteDance, permet à ses utilisateurs de concevoir, de partager et de commenter des vidéos à l’aspect bricolé et spontané. Ces 2 dernières années, elle s’est fait une place de choix parmi les réseaux sociaux les plus populaires. Mais pour asseoir sa position, TikTok doit encore franchir une ultime étape : « montrer patte blanche » à Washington sous peine d’être bannie outre-atlantique. Explications.
Un succès fulgurant
En à peine 2 ans, TikTok a conquis près de 700 millions d’utilisateurs dans le monde.
Au départ, l’application était destinée à publier des vidéos de karaoké. Les utilisateurs se filmaient en train de chanter et de danser avant de partager le résultat. Aujourd’hui, les thèmes des vidéos sont beaucoup plus variés, seul reste leur côté bricolé et spontané, même si l’usage d’effets spéciaux est encouragé par la mise à disposition d’un outil de montage (filtres, accéléré, ralenti, intégration de texte, d’images, de slides…). Par défaut, les vidéos (format vertical) durent 15 secondes. Il est néanmoins possible d’en tourner des plus longues (1 min). Elles peuvent être enregistrées via l’application et la caméra du smartphone ou réalisées sur un autre outil puis téléchargées. Les vidéos consultées ou produites peuvent être sauvegardées, partagées par e-mail ou via des comptes ouverts sur d’autres réseaux sociaux comme Instagram ou Facebook. Cette ouverture à d’autres plates-formes d’échange est une des forces de TikTok. Elle favorise la diffusion des contenus bien au-delà du réseau.
À en croire TikTok, le réseau réunissait, en juin dernier, pas moins de 689 millions d’utilisateurs actifs mensuels dans le monde, contre 55 millions en janvier 2018. C’est dire le succès fulgurant de cette application dont les utilisateurs, majoritairement âgés de 16 à 25 ans, sont extrêmement assidus : 73 % se connectent plus d’une fois chaque mois avec une moyenne d’utilisation de 52 minutes par jour. Disponible dans 155 pays et 75 langues, l’application a même dépassé les 2 milliards de téléchargements en avril dernier.
Une aubaine pour les marques qui investissent le réseau. Des entreprises qui ne viennent pas y vendre un service ou un produit mais travailler leur image et afficher leurs valeurs afin de créer, avec ces millions de futurs clients potentiels, un lien qu’elles espèrent durable. Pour y parvenir, elles adoptent les codes de TikTok : elles produisent des vidéos « bricolées », amusantes ou spectaculaires qui viennent casser leur côté sérieux. Leurs salariés ou leurs clients sont, très souvent, associés à la création de ces vidéos. C’est le cas notamment lorsqu’elles les incitent à relever des défis visant à promouvoir leurs produits, à l’image de Haribo, qui invite le public à se déchaîner en musique après avoir goûté ses bonbons à mâcher Maoam « au goût fou jusqu’au bout », ou du challenge #mcdonaldcelebrationdance, qui propose à ses utilisateurs de danser pour signifier leur joie de manger chez McDonald’s. Inviter les Tiktokeurs à se filmer en relevant un défi est une pratique courante sur le réseau. Les défis à relever sont proposés par les utilisateurs aux équipes de TikTok.
Et un problème diplomatique
Si un accord n’est pas trouvé rapidement, TikTok pourrait être interdit sur le territoire américain.
Mais si TikTok séduit les jeunes et les entreprises, force est de constater qu’il ne plait pas toujours aux États ! Déjà interdite en Inde depuis juillet dernier, la plate-forme joue désormais sa survie outre-atlantique où elle est accusée d’espionnage (en raison de la collecte d’informations profilées des utilisateurs américains) pour le compte du gouvernement chinois. Prise en otage au sein des tensions commerciales récurrentes entre les deux puissances, ByteDance a été sommée de céder ses activités américaines à une société... américaine.
Après avoir décliné l’offre de rachat du géant informatique Microsoft, ByteDance a envisagé un partenariat avec les deux sociétés américaines Oracle et Walmart. Mais ce partenariat qui, au premier abord, semblait apaiser les craintes de la Maison-Blanche, pourrait bien donner lieu à un nouveau bras de fer entre les États-Unis et la Chine. Et pour cause : ByteDance souhaite conserver 80 % du contrôle de la société TikTok Global (englobant les activités internationales de l’application, Chine exclue) alors que Donald Trump exige un contrôle majoritaire par les sociétés Oracle et Walmart. « L’affaire TikTok » n’est donc pas prête d’être réglée !
Pire, elle pourrait bien n’être que le premier round du combat mené par Donald Trump contre les géants d’Internet chinois (Alibaba, Tencent...) en pleine campagne électorale. Et faute d’un accord trouvé avant le 12 novembre 2020 avec les autorités américaines, l’application TikTok pourrait, sauf nouveau retournement, être bloquée et retirée des plate-formes de téléchargement outre-atlantique. À suivre !
Visioconférence : quelles solutions pour les professionnels ?
Fortement plébiscitées pendant le confinement, les solutions de visioconférence font aujourd’hui partie des incontournables de la vie de bureau. Panorama des outils les plus populaires.
Google Meet : de nombreuses fonctionnalités gratuites
Jusqu’au 30 septembre 2020, Google Meet propose presque toutes ses fonctionnalités gratuitement.
Service de visioconférence développé par la firme de Mountain View, Google Meet existe aujourd’hui dans une version « grand public », gratuite et accessible à toute personne disposant d’un compte Google, et dans une formule payante, réservée aux abonnés G Suite (ensemble d’outils et de logiciels destinés aux professionnels).
Comment fonctionne Google Meet ?
Pour organiser une session de visioconférence ou y participer, rendez-vous et connectez-vous à votre compte Google. Si vous faites partie des utilisateurs de Gmail, vous pouvez accéder à Google Meet directement depuis la barre latérale de votre messagerie.
Bon à savoir :
Google Meet existe également sous forme d’application mobile, gratuite et disponible pour Android et iOS.
Une fois connecté au service, vous y trouverez la liste des prochaines réunions. Vous pourrez ensuite rejoindre une discussion proposée dans la liste, renseigner le code communiqué par l’organisateur dans le champ dédié ou lancer à votre tour une conversation en cliquant sur « Démarrer une réunion ».
Formule payante ou gratuite : quelles différences ?
Partage d’écran, planification de rendez-vous, sous-titrage en temps réel… la plupart des fonctionnalités proposées par la formule payante de Google Meet sont également comprises dans sa version gratuite.
En revanche, si la version professionnelle permet de réunir jusqu’à 250 participants lors d’une même visioconférence, le service est limité à 100 personnes maximum pour la formule grand public. En outre, à compter du 30 septembre 2020, la durée maximale des sessions organisées avec la version gratuite sera limitée à 60 minutes et la fonctionnalité d’enregistrement réservée aux abonnés payants.
Skype : une solution efficace à (re)découvrir
Bien qu’un des plus anciens du marché, cet outil de visioconférence reste un des plus efficaces.
Lancée en 2003, Skype fait partie des solutions de visioconférence les plus connues. Ses fonctionnalités se sont étendues au fil des années, passant d’un simple outil dédié aux appels téléphoniques à une application aujourd’hui bien plus complète, pouvant gérer aussi bien les conversations audio que des réunions vidéo rassemblant jusqu’à 50 personnes. De manière simple et gratuite.
Comment fonctionne Skype ?
Rachetée en 2011 par Microsoft, Skype est aujourd’hui disponible pour Android, iOS, Windows et macOS. En pratique, l’utilisateur peut soit installer l’application dédiée (sur son appareil mobile ou sur son poste fixe), soit se rendre , proposé par l’éditeur, qui permet d’organiser une réunion vidéo sans inscription ni téléchargement.
Pour lancer une visioconférence à partir de l’application, rendez-vous dans l’onglet « Réunion » et cliquez sur le bouton « + », situé en haut à droite, pour inviter d’autres participants. Sur le portail « Skype Meet Now », il suffit d’appuyer sur « Créer une réunion gratuite » pour générer un lien personnalisé et l’envoyer aux autres participants. Ces derniers pourront alors rejoindre la réunion en cliquant sur le lien que vous leur avez communiqué.
Quelles sont les autres fonctionnalités proposées ?
En plus de pouvoir réunir jusqu’à 50 personnes en mode visioconférence, Skype offre à ses utilisateurs des fonctionnalités complémentaires et pratiques, telles que le sous-titrage et la traduction en temps réel, le partage d’écran ou encore l’enregistrement et le transfert des appels effectués.
Sans oublier, enfin, le service de messagerie instantanée, qui peut être utilisé seul ou en parallèle des conférences audio/vidéo organisées.
Bon à savoir :
la messagerie instantanée intégrée dans Skype permet également de partager des pièces-jointes, des slides ou tout autre document (texte, image…), que chaque participant aura la possibilité de modifier.
Zoom : une application simple et intuitive
Largement utilisé pendant le confinement, Zoom est en passe de devenir un des outils de visioconférence les plus utilisés.
Développée pour l’univers professionnel, Zoom fait aujourd’hui partie des solutions les plus populaires au monde. Et pour cause, puisqu’elle offre à ses utilisateurs une prise en main intuitive, et ce depuis n’importe quel appareil (fixe ou mobile). Si l’inscription est gratuite, certaines fonctionnalités sont néanmoins réservées à la version payante de l’outil.
Comment fonctionne Zoom ?
Une fois l’inscription finalisée, vous pouvez installer l’application adaptée à votre système d’exploitation (Windows, macOS ou Linux) ou à votre appareil mobile (Android ou iOS) et vous y connecter en renseignant votre identifiant et votre mot de passe.
Bon à savoir :
lorsque vous utilisez votre adresse mail professionnelle pour vous inscrire sur Zoom, l’application pourra retrouver tous vos collaborateurs utilisant déjà l’outil et se synchroniser avec votre agenda Google ou Office 365.
Pour créer une réunion vidéo, rendez-vous dans l’onglet « Accueil » et cliquez sur « Nouvelle réunion ». Grâce au bouton « Inviter », proposé dans la barre d’outils située en bas de la fenêtre, vous pouvez ensuite convier d’autres participants. Pour vous connecter à une réunion déjà existante, il vous suffira de cliquer sur le lien envoyé par l’organisateur.
Et côté sécurité ?
Bien que plébiscitée pour sa simplicité d’utilisation et sa capacité de réunir jusqu’à 100 personnes avec la version gratuite de l’outil, dans la limite de 40 minutes par session (la formule payante permet, quant à elle, de rassembler jusqu’à 1 000 participants, sans restriction de temps), Zoom a récemment essuyé un flot de critiques concernant sa sécurité. En cause, notamment, l’absence d’un chiffrement de bout à bout des conversations et des données échangées. De quoi amener l’éditeur à réagir.
Au cours des derniers mois, de nombreuses mises à jour ont ainsi permis d’introduire de nouvelles fonctionnalités liées à la sécurité et au respect de la vie privée. Et si son déploiement devait, initialement, se limiter à la version payante de l’outil, le chiffrement de bout à bout des conversations est désormais pris en charge pour tous les utilisateurs, quelle que soit la formule choisie.
Microsoft Teams : un outil intégré dans la suite Office
Développé autour de la suite bureautique de Microsoft, Teams est très prisé par les grandes entreprises.
Lancé en mars 2017, Teams regroupe les fonctionnalités de plusieurs applications Microsoft dédiées aux professionnels (Skype Entreprise, SharePoint, Exchange…). Intégré dans la suite Office 365, Teams n’est pas seulement un outil de visioconférence mais représente davantage une plate-forme collaborative personnalisable, à la fois complète et pratique.
Comment fonctionne Teams ?
Pour utiliser Teams, rendez-vous . Si vous disposez déjà d’un compte Microsoft Office 365, vous pouvez vous connecter directement en renseignant vos identifiants. Sinon, cliquez sur « Inscrivez-vous » pour accéder à la version gratuite de l’outil.
Bon à savoir :
directement depuis le portail en ligneUne fois connecté au service, vous pouvez commencer à organiser votre plate-forme en créant, par exemple, des équipes de collaborateurs. Pour lancer une visioconférence, rendez-vous ensuite dans l’onglet « Équipes » et cliquez sur « Démarrer une réunion » pour convier les participants, ou passez par l’onglet « Calendrier » et sélectionnez « Rejoindre maintenant ». Teams vous proposera, dans un second temps, d’inviter les participants grâce au menu affiché sur le côté droit de l’écran.
Quelles sont les autres fonctionnalités proposées ?
Au-delà du service de visioconférence, Microsoft Teams comprend de multiples fonctionnalités complémentaires : appels audio, messagerie instantanée, stockage et transfert de fichiers, création de groupes de travail et d’espaces de discussion distincts (appelés « canaux »), possibilité de travailler en mode coédition sur des documents partagés… Autant d’outils au service d’une collaboration en temps réel, et ce même à distance.
Sans oublier, enfin, que Teams vous permet aussi d’intégrer un nombre relativement important d’applications, dont certaines issues de la suite Office (comme One Note, Word, Power Point ou Excel), et d’autres renvoyant à des services tiers (Wikipédia, Weather, News…). De quoi regrouper tous vos outils en un seul endroit !
Quelques solutions alternatives
D’autres outils permettent également de tenir des conversations vidéo.
À côté des solutions de visioconférence très abouties et polyvalentes, il existe un certain nombre d’applications aux fonctionnalités plus réduites qui peuvent, néanmoins, être pratiques pour échanger à distance. En voici quelques exemples.
Gratuite et facile à utiliser, l’application mobile fonctionne à la fois sur les appareils Android et iOS. Rachetée par Facebook en 2014, WhatsApp réunit aujourd’hui plus de 2 milliards d’utilisateurs dans le monde. Vous pouvez l’utiliser pour envoyer des messages texte, mais aussi passer des appels vidéo ou audio. Autre avantage : l’application offre un chiffrement de bout en bout.
FaceTime
Développée par Apple, l’application FaceTime est réservée aux propriétaires d’un appareil mobile ou fixe fonctionnant respectivement sous iOS ou macOS. Elle permet de passer des appels audio ou vidéo. Depuis iOS 12, Apple a également ajouté une option appels de groupe qui permet de discuter avec 32 personnes à la fois. Sous condition, toutefois, que tous les participants disposent d’un appareil Apple.
Google Duo
Gratuite et simple à utiliser, l’application Google Duo représente l’équivalent de FaceTime pour les appareils sous Android (tout en étant, également, disponible pour iOS), le nombre maximal de participants pour les appels vidéo étant néanmoins limité à 12 personnes en simultané. La confidentialité des conversations est assurée grâce au chiffrement de bout en bout.
Facebook Messenger
Pour les utilisateurs de Facebook, l’application Messenger (disponible pour Android et iOS) représente également une alternative intéressante. Si sa vocation première consiste à envoyer des messages, elle permet également de réaliser des vidéoconférences grâce à la fonctionnalité « Rooms » (ou « Salons », en français). Et de rassembler, ainsi, jusqu’à 50 personnes.
Zoom sur les traducteurs automatiques
Disponibles sur Internet ou sous la forme d’applications pour tablette ou smartphone, les traducteurs automatiques font partie des outils les plus utilisés par les internautes et les mobinautes à titre personnel ou professionnel. Simples, ils permettent, gratuitement, de traduire en quelques secondes un mot, une page Web et même une conversation.
D’un simple mot à un site complet
Ces outiles peuvent traduire à la volée plusieurs milliers de caractères.
Il existe de nombreux outils de traduction en ligne. Certains ne sont que de simples dictionnaires uniquement capables de traduire quelques mots à la fois, alors que d’autres offrent la possibilité, gratuitement, de traiter à la volée des textes ou des pages Web de plusieurs milliers de caractères.
Microsoft Traducteur
Différents types de données peuvent être traduites en fonction des programmes :
- un texte tapé dans une fenêtre dédiée ou entré via un simple copier-coller ;
- une page d’un site Internet ;
- un fichier texte (.rtf, .doc, .pdf…) via un système d’import ;
- un texte dicté via un système de reconnaissance vocale.
Des dizaines de langues
De l’anglais au russe en passant par le khmer ou le créole...
La plupart des outils disponibles permettent de traduire vers ou à partir des principales langues utilisées sur la planète (anglais, espagnol, chinois, français, arabe, russe, allemand...). Toutefois, là encore, quelques traducteurs vont plus loin et intègrent dans leur offre des langues moins répandues comme le gallois, le khmer, le basque ou encore le créole haïtien ! Au total, Microsoft propose 70 langues, Google 103 et Systran 42. Le plus souvent, ces outils sont capables d’identifier la langue d’origine. Une fonction pratique pour qui souhaite, notamment, comprendre le sens d’un texte rédigé dans une langue qu’il n’est pas en mesure d’identifier.
Par ailleurs, pour faciliter la saisie des langues s’appuyant sur un alphabet spécifique (arabe, cyrillique, chinois...), Google propose une interface dotée de différents claviers virtuels.
La qualité des traductions
Ces outils n’ont pas pour ambition de remplacer un interprète.
Parvenir à traduire correctement un texte est un travail complexe qui, jusqu’à présent, n’est correctement réalisé que par des êtres humains formés à cette tâche. Une évidence qui néanmoins ne doit pas conduire à rejeter les traducteurs automatiques.
Ces derniers peuvent en effet être simplement utilisés pour, par exemple, comprendre le sens d’un document (courriel, article de presse…), découvrir les services d’une entreprise (plaquette commerciale, page d’un site) ou pour effectuer une première traduction de documents non contractuels dans une langue étrangère. Une traduction qui, avant d’être diffusée, devra être relue et corrigée par quelqu’un maîtrisant la langue de destination.
En revanche, ils ne doivent jamais être utilisés pour traduire (vers le français et a fortiori vers une langue étrangère) des contrats, des notices techniques, des documents commerciaux qui portent l’image d’une entreprise (site, plaquette, cartes de visite, courriels et courriers officiels…).
Des applications pour smartphone
Beaucoup de traducteurs automatiques proposent une version pour smartphone.
Notamment lors de déplacements à l’étranger, disposer d’un « interprète » de poche peut être très pratique. Raison pour laquelle la plupart de ces outils de traduction ont développé des applications pour smartphones et tablettes (Android, iOS) librement téléchargeables sur les plates-formes, Ces outils, outre traduire des textes (même hors connexion), offrent, pour certains, la possibilité de traduire les panneaux d’information (reconnaissance optique) et d’effectuer une traduction simultanée des conversations (reconnaissance vocale).
DeepL, un traducteur très prometteur
Même si Google domine outrageusement le monde de la traduction en ligne gratuite, d’autres outils, comme DeepL, méritent d’être mis en lumière.
Lancé en 2017, s’appuie sur un système d’intelligence artificielle travaillant à partir d’une base de données constituée de plus d’un milliard de textes traduits. Ce mode de fonctionnement lui permet de proposer des traductions jugées, notamment par la presse technique, comme étant beaucoup plus fidèles que celles de ses concurrents. La Confédération helvétique vient d’ailleurs d’équiper les fonctionnaires de son administration de 2 000 licences version Pro de DeepL. À en croire l’entreprise, plus de 7 milliards de caractères seraient traités, chaque jour, par son outil de traduction.
DeepL permet de traduire vers et à partir de 9 langues (français, anglais, allemand, espagnol, portugais, italien, néerlandais, polonais, russe). Les traductions peuvent être réalisées en utilisant l’interface proposée en ligne via le copier-coller d’un texte ou en glissant-déposant un fichier Word ou un PowerPoint (la mise en forme n’est, en principe, pas affectée par la traduction).
Il est également possible de télécharger une application (compatible Windows et MacOS) grâce à laquelle on peut réaliser une traduction sans quitter son logiciel de traitement de texte ou son gestionnaire de courriels. La version gratuite limite toutefois la taille des documents traduits à 5 000 signes.
Limiter l’impact écologique des impressions et des e-mails dans les entreprises
Si l’utilisation intensive du papier dans les bureaux pose un problème écologique évident, celle des courriels n’est pas non plus sans effet sur l’environnement. Une utilisation raisonnée de ces supports et de ces outils doit donc être adoptée dans les entreprises qui souhaitent amorcer une transition écologique.
Un premier constat
Le développement de l’informatique dans les entreprises n’a pas fait baisser la consommation de papier, loin de là.
L’informatisation du monde professionnel n’a pas eu d’incidences majeures sur la consommation du papier. Ainsi, selon l’Agence de l’environnement et de la maîtrise de l’énergie (Ademe), chaque salarié consommerait entre 70 et 85 kg de papier par an (chiffres 2016). Entamer une démarche permettant de réduire drastiquement l’usage du papier est donc au programme des entreprises inscrites dans une phase de transition écologique. Mais comme le précise l’Ademe dans son , réduire sa consommation de papier doit s’accompagner d’une utilisation raisonnée, pour ne pas dire raisonnable, de sa messagerie électronique et des outils numériques en général. Pourquoi ? Tout simplement parce que le stockage, mais également la circulation des quelque 293 milliards de courriels qui s’échangent chaque jour dans le monde (chiffres Radicati Group 2019), nécessitent la fabrication et l’entretien de machines (serveurs, routeurs…) et d’infrastructures énergivores dont la production et le retraitement, en tant que déchets, sont très polluants.
D’abord, le papier
Il est conseillé de limiter les impressions au strict minimum et de préférer le noir et blanc à la couleur.
Le constat dressé par l’Ademe est amer : 25 % des documents sont jetés après leur impression et 16 % ne sont jamais lus… Sans bouleverser les méthodes de travail de chacun, il est ainsi possible de réduire drastiquement la consommation de papier en n’imprimant que ce qui est nécessaire. Autrement dit, seulement les documents qui ont vocation à être régulièrement consultés. Pour les autres, une lecture sur l’écran reste écologiquement moins néfaste. En outre, l’impression elle-même doit être maîtrisée. Et pour nous y aider, l’Ademe nous livre un certain nombre de conseils dans son . L’agence invite ainsi chacun d’entre nous à optimiser la mise en page des documents imprimés en supprimant les images inutiles, les espaces vides, les publicités, etc. Il convient, en outre, là encore dans le but d’économiser le papier mais également l’encre et l’énergie dépensée par les machines, d’imprimer les documents recto-verso et en noir et blanc. Réutiliser les feuilles déjà imprimées sur une face, voire imprimer plusieurs pages sur la même feuille est également fortement conseillé par l’agence. Enfin, sortir les imprimantes des bureaux individuels pour les rendre collectives a généralement une influence déflationniste sur le nombre de documents imprimés.
Acheter du recyclé et trier les déchets papier
Les papier recyclés et éco-labélisés doivent être préférés. En outre, un tri sélectif des déchets doit être opéré.
Produire une feuille de papier recyclée consomme 3 fois moins d’énergie et d’eau que de produire une feuille à partir d’une fibre vierge, rappelle l’Ademe. Préférer ce type de papier s’inscrit donc dans une démarche éco-responsable. Pour autant, les papiers à fibre vierge ne doivent pas être proscrits pour peu qu’ils soient issus de forêts gérées durablement. Pour en être certain, il convient de préférer les productions labélisées : l’Écolabel UE (la fleur européenne), le Nordic Écolabel, l’Ange bleu, le PEFC ou encore les FSC, FSC mixte ou FSC recyclé. Sans surprise, opter pour des toners d’encre recyclés s’impose également.
Mais le réflexe du recyclé ne doit pas influencer nos seules habitudes d’achat. Il doit également faire évoluer nos pratiques de gestion des déchets de la ligne papier & impressions. Sur ce point, il convient d’ailleurs de rappeler que depuis 2018, toutes les entités professionnelles (entreprises, établissements, regroupement d’entreprises sur un même site) regroupant plus de 20 personnes sont dans l’obligation de trier leurs déchets papier (art. D543-285 et s du Code de l’environnement). Cette obligation concerne les impressions, les livres, les publications de presse, les articles de papeterie façonnés, les pochettes postales, le carton, etc.
Dans les faits, le plus simple est ici de mettre à disposition de chaque collaborateur et à côté de chaque imprimante une corbeille dédiée au papier. Réutiliser les cartons de ramettes pour jouer le rôle de ces fameuses corbeilles s’inscrit parfaitement dans cette démarche. Une feuille de papier peut être recyclée jusqu’à 7 fois et une feuille de carton jusqu’à 10 fois, précise l’Ademe.
Bannir les envois inutiles de courriels
Émettre des courriels pollue. Il convient donc d’adopter une approche éco-responsable lors de leur traitement.
Comme avec les impressions papier, la première chose à faire est d’identifier les situations de gaspillage et de les bannir. En matière de gestion des courriels, cela se traduit avant tout par la suppression des envois inutiles. Il peut, par exemple, s’agir du célèbre « répondre à tous » qui, le plus souvent, est injustifié, du mail de confirmation de réception d’un autre mail ou de courriels envoyés en « copie » à des personnes qui ne sont pas concernées par le courriel quand ce n’est pas le dossier traité.
Ensuite, il est conseillé de prendre en compte le poids des courriels, partant du principe que plus le volume d’informations contenu est important, plus leur impact sur l’environnement est élevé. On devra ainsi chasser des courriels les pièces jointes inutiles et préférer des fichiers compressés ou en basse définition (images, PDF…). Une image en basse définition doit également être choisie pour le logo de signature automatique du courriel. En outre, il convient d’éviter de répondre à son interlocuteur à lui renvoyant les pièces jointes qu’il vient de nous faire parvenir.
Enfin, le stockage, notamment sur des serveurs de messagerie distants, étant également énergivore (25 % des gaz à effets de serre produits par le numérique le sont par les seuls data centers, rappelle l’Ademe), il est impératif de supprimer de ses boîtes de réception et d’envoi tous les courriels ayant déjà été traités.
Faire durer les machines
Accroître le cycle de vie d’un ordinateur ou d’un smartphone réduit son impact écologique.
Si un quart des gaz à effet de serre générés par les activités du numérique est le fait des data centers, près de la moitié (47 %) provient de la fabrication de l’usage et du traitement en déchet des smartphones, ordinateurs, tablettes et autres GPS que chaque jour nous utilisons à titre personnel ou professionnel. Étendre leur cycle de vie constitue donc la première démarche à mettre en œuvre. Cela revient à, d’une part, les utiliser plus longtemps (ne pas céder à l’attrait du dernier modèle, réparer plutôt que changer, entretenir correctement…) et, d’autre part, en fin de vie professionnelle, s’ils fonctionnent encore mais ne répondent plus aux besoins, à les proposer à des ateliers de reconditionnement (beaucoup sont des associations ou des entreprises d’insertion) qui, après les avoir restaurés, les remettront sur le marché.
Pour limiter les impacts écologiques de son parc de machines, il est également conseillé de prendre en compte cet aspect dès l’achat. Concrètement, là encore, il faut se fier aux éco-labels (l’Écolabel UE, le Nordic Écolabel, l’Ange bleu, Epeat, TCO…) qui vont distinguer les machines les plus sobres, accueillant moins de substances dangereuses pour la santé et facilement recyclables. En outre, il est important de préférer, lorsque cela est possible, des matériels structurellement plus sobres. Par exemple, on préfèrera un ordinateur portable dont la consommation d’énergie, selon l’Ademe et Greenit, varie de 30 à 100 kWh/an à une station fixe (120 à 230 kWh/an). Dans le même esprit, une imprimante multifonctions (scanner, impression, photocopieur) consomme 50 % d’énergie de moins que les 3 appareils qu’elle remplace, précise l’Ademe.
Conduire le changement
Mettre en place une démarche écologique dans une entreprise ne pourra se faire qu’avec le soutien et l’implication des collaborateurs et des dirigeants.
Vous l’aurez compris, la transition écologique, même si, dans le cas présent, elle se limite à la gestion des documents, ne peut se résumer à l’adoption d’une succession de gestes vertueux. Elle doit, pour réussir, faire partie de la culture de l’entreprise, de ses valeurs et ainsi être portée par l’ensemble des collaborateurs, mais aussi des dirigeants. Sans quoi elle ne sera vécue que comme une simple mesure d’économie et peinera à s’imposer, voire sera brutalement rejetée.
Aussi convient-il de faire de son adoption un véritable projet d’entreprise porté par la direction et mis en œuvre avec une approche de conduite du changement. Cela suppose que les collaborateurs prennent une part active dans la définition des objectifs, des points d’étapes, mais également des actions d’accompagnement.
Les podcasts séduisent le public et les entreprises
Contraction des termes iPod et broadcasting, les podcasts sont des fichiers sonores, librement téléchargeables sur internet. Nés au début des années 2000, ils ont tout d’abord été proposés par des radios désireuses de permettre à leurs auditeurs d’écouter leurs émissions favorites quand bon leur semblait. Aujourd’hui, de plus en plus d’entreprises produisent des podcasts dans le but de garder le lien avec leurs clients ou de séduire des prospects.
Une consommation passive
Un des intérêts des podcasts est qu’ils peuvent être « consommés » en faisant du sport, en travaillant, et même en conduisant.
L’histoire n’est pas nouvelle : contrairement aux livres, aux journaux et à la vidéo, le son peut être consommé de manière passive. Autrement dit, tout en faisant autre chose. Une qualité qui fait le succès des radios et celui des podcasts qui, à la différence de ces dernières, peuvent être écoutés à la demande. Résultat, en quelques années, de nombreuses émissions ont trouvé une nouvelle vie. Selon Médiamétrie (étude Global audio - mars 2019), près de 23 % des internautes écoutent des contenus radios en « replay ».
Et les émissions en replay ne sont pas les seuls programmes consommés. Des podcasts « natifs », c’est-à-dire dont c’est le seul mode de diffusion, font également florès sur internet. Certains sont, une fois de plus, produits par des radios, mais d’autres sont réalisés par des entreprises qui y voient un moyen de parler de leurs produits, de leur savoir-faire ou de leurs valeurs.
Les initiatives sont nombreuses et variées. On peut citer la maison Chanel qui, depuis 2017, produit une série baptisée « 3.55 ». Déjà riche de plus d’une centaine de podcasts, elle permet aux auditeurs de découvrir, en mode conversation intime, des personnalités de la mode et des arts. Dans le même esprit, Hermès a créé la série « Faubourg des rêves » : une dizaine de podcasts donnant la parole à plusieurs de ses collaborateurs, à charge pour eux d’expliquer leurs métiers et de transmettre leur passion. Autres exemples, des parcours de femmes entrepreneuses dans une série de podcasts baptisée « La belle audace » et produit par la Caisse d’épargne ou encore la série « Primo » de l’éditeur Robert Laffont qui en 16 épisodes permet de « découvrir la vie d’un livre et d’une maison d’édition ». À noter également une série de 3 podcasts, mis en ligne par l’Armée de l’air invitant l’auditeur à vivre des missions de l’intérieur dans le but avoué de créer des vocations.
Pas si simple à produire
Pour séduire un auditeur, un podcast de marque doit offrir une forme et un contenu de qualité.
Sans conteste, les moyens techniques et financiers à mobiliser pour créer ces programmes sonores sont réduits par rapport à une campagne de presse ou vidéo. Ce qui ne signifie pas que la production d’une série de podcasts puisse s’improviser.
D’abord, même si cela est une évidence, le podcast n’est qu’un moyen de communication parmi d’autres. Aussi doit-il s’inscrire au service de la politique marketing globale de l’entreprise. Autrement dit, il doit remplir des objectifs clairement définis par la direction de l’entreprise (message porté, communauté ciblée, ROI) et servir en complément des autres médias utilisés. Les producteurs du podcast devront donc œuvrer dans le respect de ce cahier des charges.
Ensuite, n’oublions pas que les auditeurs consomment majoritairement des podcasts diffusés par des radios. Ils sont donc habitués à écouter des productions de qualité (prise de son, montage, illustrations sonores, musiques, invités prestigieux…). Sauf à vouloir donner un côté « fait avec les moyens du bord » à ses podcasts, il convient donc d’en confier la réalisation à des professionnels disposant d’un studio d’enregistrement, d’un ingénieur du son et d’une équipe de créatifs.
Enfin, il faut assurer la diffusion de ces podcasts, c’est-à-dire, au-delà de leur mise en ligne, les faire connaître de leur cible. Un travail qui, aujourd’hui, va essentiellement être réalisé sur les réseaux sociaux et qui, lui aussi, devra être confié à des spécialistes.
Comment les diffuser ?
Les podcasts sont mis à disposition sur le site de l’entreprise ou, le cas échéant, sur des plates-formes spécialisées.
Les podcasts sont mis à disposition sur le site de l’entreprise et, le cas échéant, peuvent être référencés sur des plates-formes spécialisées (Deezer, Spotify, iTunes, Google Podcasts…). Les auditeurs peuvent ainsi venir les écouter ou les télécharger. Un flux RSS est généralement associé à ces fichiers. Il permet aux auditeurs qui s’y abonnent (et aux plates-formes qui les référencent) d’être tenus informés de la mise en ligne d’un nouveau podcast. Ces derniers, afin de gérer la recherche, le suivi et la synchronisation des podcasts sur leur smartphone, peuvent utiliser des applications dédiées. Les plus connues sont Google Podcasts, AntennaPod, Pocket Casts, Podcast Addict…
Peut-on encore téléphoner au volant ?
Selon les chiffres de la Sécurité routière, un accident automobile sur dix serait dû à l’utilisation d’un téléphone au volant. Un taux impressionnant qui a conduit l’État à en interdire l’usage en 2003 et celui des kits mains libres utilisant des oreillettes Bluetooth ou filaires en 2015. Une bonne occasion de faire le tour des solutions techniques permettant encore de téléphoner au volant en toute légalité.
Rappel de la loi
Utiliser un téléphone « tenu en main » ou passer un appel via un système filaire ou Bluetooth dotés d’oreillettes est passible d’amende.
Aujourd’hui, l’utilisation d’un téléphone au volant est interdite par l’article R. 412-6-1 du Code de la route. Cette règle ne concerne que le conducteur et non les passagers. Elle ne proscrit pas le fait de téléphoner, mais l’usage d’un téléphone « tenu en main ». En outre, elle n’est applicable que lorsque le véhicule est engagé dans un flux de circulation, en mouvement ou à l’arrêt (feu rouge ou embouteillage, par exemple), même lorsque le moteur est éteint, comme l’a rappelé la .
Bien entendu, la lecture et a fortiori la rédaction d’un SMS sont également interdits. La Sécurité routière précise d’ailleurs à ce propos que le fait de lire un SMS en conduisant multiplie par 23 le risque d’accident. Avis aux amateurs. Dans les faits, la simple tenue en main d’un téléphone en situation de conduite est suffisante pour encourir une sanction.
Enfin, il faut également savoir que depuis le 1er juillet 2015 l’utilisation de tout système de type écouteurs, oreillettes (sauf systèmes médicaux) ou casques susceptibles de limiter « tant l’attention que l’audition des conducteurs » est interdite. L’utilisation d’un kit mains libres filaire ou Bluetooth comprenant des oreillettes est donc proscrit, même s’il n’est porté que sur une oreille. Une interdiction qui concerne tous les types de véhicules routiers y compris les 2 roues (motos, vélomoteurs, vélos, bientôt trottinettes électriques).
Les sanctions encourues par les contrevenants sont une amende de 135 € et un retrait de 3 points sur leur permis de conduire.
Les systèmes autorisés
Les kits mains libres sans oreillettes, les autoradios Bluetooth et les systèmes embarqués restent autorisés.
Les kits mains libres sans oreillettes
Non visés par l’interdiction, les kits mains libres sans oreillettes prennent la forme d’un boîtier de moins de 100 grammes qui, grâce à une pince, vient se fixer sur le pare-soleil du véhicule. Munis de boutons permettant de décrocher, de raccrocher, de monter ou de baisser le son, ils sont équipés d’un haut-parleur ainsi que d’un micro.
Dès qu’ils sont connectés au téléphone du conducteur (Bluetooth), ils téléchargent son répertoire. Il devient alors possible d’appeler un de ses contacts, sans devoir prendre en main le téléphone, via un système de reconnaissance vocale. La plupart de ces produits offrent un système de contrôle vocal permettant au conducteur d’accepter ou de refuser un appel entrant. Ces kits sont vendus entre 30 € et 100 €.
Autoradios Bluetooth…
Si les kits mains libres classiques offrent de nombreuses fonctions, ils sont rarement équipés de haut-parleurs puissants, obligeant ainsi leurs utilisateurs à baisser le son de l’autoradio lorsqu’ils souhaitent converser avec leur correspondant. Aussi, un certain nombre de fabricants proposent des autoradios pouvant être couplés avec des téléphones. Dès lors, non seulement la communication est de meilleure qualité, mais en plus la gestion des volumes sonores est automatisée.
Ainsi, lorsque le conducteur reçoit ou décide de passer un coup de fil, le son de la radio ou de la musique est réduit, permettant alors un confort de conversation optimal sans aucune manipulation. Outre les principales fonctions des kits mains libres, ces autoradios offrent la possibilité d’écouter la musique stockée sur le smartphone avec lequel ils sont couplés. Les autoradios proposant des fonctions téléphoniques avancées sont vendus à partir de 50 €.
… et systèmes embarqués
À noter enfin que la plupart des véhicules récents de moyenne et haute gamme, français comme étrangers, sont équipés d’un système embarqué qu’il est possible de coupler avec un ou plusieurs téléphones et offrant les mêmes fonctionnalités que celles proposées par les autoradios Bluetooth.
Au même titre que les kits mains libres sans oreillettes, les autoradios Bluetooth et les systèmes embarqués sont utilisables en toute légalité.
Et pour les 2 roues ?
Pour les motards et les utilisateurs de vélomoteurs, seuls les systèmes d’écoutes et de téléphonie intégrés au casque sont autorisés.
Et demain ?
* Étude menée auprès de 3 500 conducteurs pour partie sur le réseau autoroutier et pour partie sur simulateur en laboratoire.
Dans tous les cas, téléphoner au volant reste dangereux.
Lors du Comité interministériel de la sécurité routière (CISR) qui s’est tenu en janvier 2018, outre l’abaissement de la vitesse de 90 à 80 km/h, avait été prévu que les forces de l’ordre puissent procéder à un retrait de permis (rétention, puis suspension du permis par le préfet) lorsque l’usage d’un téléphone au volant était constaté en même temps qu’une autre infraction au code de la route (franchissement d’une ligne continue ou un excès de vitesse, par exemple). Ce durcissement pourrait entrer en application dans les mois à venir.
En outre, différentes études montrent que le seul fait de téléphoner au volant réduit considérablement l’attention du conducteur. Une des dernières études* scientifiques parues a été menée par le centre d’investigations neurocognitives et neurophysiologiques de l’université de Strasbourg. Réalisée pour le compte de la Fondation Vinci Autoroutes, cette étude, publiée en septembre 2014, a permis de mesurer les effets des conversations téléphoniques sur les capacités d’attention et de perception des conducteurs. Les résultats sont sans appel : diminution de 30 % des informations enregistrées par le cerveau, de 50 % du champ de vision du conducteur, allongement des temps de réaction et enfin maîtrise aléatoire des dépassements et des trajectoires. Une dégradation importante des capacités qui, précise l’étude, est la même que le conducteur téléphone en utilisant une oreillette (filaire ou Bluetooth), un kit muni d’un haut-parleur ou le téléphone tenu contre l’oreille. Des données scientifiques qui pourraient, légitimement, conduire l’État a davantage restreindre les conditions d’utilisation du téléphone au volant.
Vendre ses produits grâce à Pinterest
Le réseau social de partage d’image est de plus en plus utilisé par les entreprises pour faire connaître leurs produits.
Créé il y a 10 ans, Pinterest réunit aujourd’hui quelque 250 millions d’utilisateurs actifs dans le monde qui, régulièrement, viennent sur cette plate-forme atypique trouver et « épingler » des images en rapport avec leurs centres d’intérêt. Petit coup d’œil sur cet outil que ses créateurs définissent, non comme un réseau social, mais comme un « moteur de recherche d’inspiration ».
Trouver des idées
Pinterest n’est pas utilisé pour se mettre en avant, mais pour trouver des idées et partager ses passions.
Les internautes n’utilisent pas Pinterest pour entretenir leur réseau d’amis ou de contacts professionnels, mais pour trouver des idées. Raison pour laquelle parmi les thèmes les plus recherchés se trouvent la décoration, les conseils beauté, les voyages ou encore les recettes de cuisine. Concrètement, une fois inscrit, chacun peut effectuer des recherches dont les résultats sont des images et « épingler » celles qui lui plaisent ou correspondent à ses centres d’intérêt dans des espaces thématiques qu’il aura créés. Appelés « tableaux », ces dossiers sont, par défaut, librement consultables par les autres utilisateurs du réseau. Quelques clics sont suffisants pour créer un tableau et l’ajouter à son profil. Il est, par ailleurs, possible de créer des sous-tableaux grâce auxquels on pourra mieux organiser le tri des différentes images épinglées dans le tableau. En outre, Pinterest permet également de fusionner des tableaux, mais aussi de partager ses droits sur un tableau afin que plusieurs personnes puissent l’administrer.
À savoir :
il est possible de garder un tableau secret. Dans cette hypothèse, seuls son créateur et les personnes de son choix y auront accès.
75 % des images mises en ligne par des professionnels
Beaucoup d’entreprises utilisent ce réseau pour faire connaître, en images, leurs produits et leurs services.
Tous les membres de Pinterest ont la possibilité de mettre en ligne des images, les particuliers comme les entreprises. Et à en croire les dirigeants de Pinterest, ce sont les titulaires d’un compte professionnel qui sont à l’origine de 75 % des contenus disponibles sur le réseau. Pourquoi ? Simplement parce que chacune des images intègre potentiellement un lien pointant vers le site de son éditeur. Les entreprises peuvent ainsi présenter leurs produits via des photos (le plus souvent de grande qualité) et permettre aux personnes qui les découvrent sur Pinterest de venir les acheter sur leur site en un clic. Pour les y inciter, un descriptif peut être ajouté à l’image (descriptif technique, disponibilité, prix…). Les utilisateurs du réseau ont, en outre, la possibilité, en cliquant sur l’image, de la commenter ou de poser une question à celui qui l’a mise en ligne.
Précision :
il est possible de créer une « épingle » en intégrant une image ou une vidéo via un simple glisser-déposer ou en intégrant un lien web qui pointera vers le site sur lequel se trouve le fichier.
Créer un compte professionnel
Créer un compte professionnel permet d’accéder à un outil statistique performant et de lancer des campagnes de promotion.
Une fois un compte classique ouvert sur Pinterest, il suffit de cliquer sur la rubrique menu (symbolisée par 3 points) pour le faire basculer en compte professionnel. Cette opération permet d’accéder à un module de statistiques très complet (nombre d’enregistrements effectués par d’autres membres des épingles créées, nombre de clics, de vues des épingles créées, d’accès au site web lié aux épingles…), mais également au module de gestion des campagnes publicitaires. Via ce dernier, il est possible de faire connaître son entreprise, ses produits ou ses services en créant des images qui, compte tenu du ciblage choisi (mots-clés, zone géographique…), viendront s’afficher sur les pages d’accueil des utilisateurs du réseau et/ou lorsque ces derniers lanceront des recherches en rapport avec la nature du produit ou l’activité de l’entreprise.
Précision :
des statistiques permettent de mesurer l’efficacité d’une campagne publicitaire (données de diffusion, de conversion…) et ainsi de la corriger notamment en modifiant les paramétrages de ciblage.
Les voitures électriques en 5 idées reçues
Opter pour une voiture électrique serait-il la solution aux incessantes fluctuations des prix du carburant ?
Réputées chères, peu autonomes, peu puissantes et longues à recharger, les voitures électriques peinent encore à convaincre. Ainsi, en 2018, seuls 31 000 de ces véhicules ont trouvé preneur en France, ce qui représente à peine moins de 1,5 % des ventes de voitures neuves. Pour autant, l’instabilité des prix du carburant et la nécessaire transition énergétique pourraient bien changer la donne. Retour sur 5 idées reçues, fondées ou non, qui entourent les voitures électriques (VE).
1 - Leur prix très élevé
Encore aujourd’hui, les voitures électriques coûtent plus cher que leurs « équivalentes » thermiques. Pour s’offrir le modèle de base de la voiture électrique la plus vendue en France, la Renault Zoé (17 038 exemplaires vendus en 2018), il faut ainsi débourser quelque 23 000 € auxquels s’ajoute le prix de la batterie (8 900 €). Autre exemple, 34 000 € (batteries comprises) sont nécessaires pour acheter l’entrée de gamme des Nissan Leaf, l’autre star française des VE. Toutefois si le prix du neuf peut être dissuasif, il est désormais possible d’opter pour une occasion. Un marché pris en main par les concessionnaires sur lequel se trouvent essentiellement des premières mains reprises à des adeptes de l’électrique venus s’offrir un modèle plus récent. Sur le site de Renault Occasions, plus de 450 Zoé sont aujourd’hui proposées. Elles ont entre 5 000 et 60 000 km au compteur, sont garanties de 6 à 12 mois et sont vendues entre 7 000 € et 11 000 € auxquels il convient d’ajouter la location de la batterie (59 € par mois). Des solutions de location longue durée (LLD) sont également proposées par la marque au losange.
Chez Nissan, de plus en plus de VE d’occasion sont également commercialisées par les concessionnaires du réseau. Des Leaf, ayant parcourus moins de 50 000 km et garanties de 12 à 24 mois y sont mises en vente entre 10 000 € et 15 000 € (batteries comprises).
À savoir :
un bonus écologique de 6 000 € consenti par l’État permet de réduire la facture lors de l’achat d’un véhicule électrique neuf ou d’occasion. Cette aide est plafonnée à hauteur de 27 % du coût d’acquisition TTC du véhicule (batteries comprises). Sous certaines conditions, la prime à la conversion, proposée lors de la mise à la casse d’un véhicule ancien à l’occasion de l’achat d’un véhicule moins polluant peut venir s’ajouter à ce bonus écologique.
2 - Leur autonomie est très réduite
Parcourir une distance de plus de 300 km sans avoir besoin de croiser une prise électrique reste encore l’apanage des VE haut de gamme comme la Tesla 3 (540 km dans sa version « grande autonomie » vendue un peu plus de 70 000 €). Les autres dépassent rarement les 300 km (240 km pour la Zoé, 270 km pour la Nissan Leaf, 100 km pour la Smart Forfour). Et encore, il s’agit de distances « constructeurs » calculées dans des conditions idéales de conduite. S’il fait très froid, que la voiture est chargée ou encore que son conducteur adopte une conduite un peu trop sportive, ces estimations seront sérieusement revues à la baisse. Pour autant, l’autonomie des VE est largement suffisante pour répondre aux besoins d’une personne effectuant entre 50 et 100 km par jour.
3 - Il faut une éternité pour les charger
Le temps de chargement des batteries dépend de leur capacité (kWh), mais aussi de la puissance de la source électrique. Avec une installation standard (prise classique), il faut plusieurs heures pour totalement charger une VE (21 heures pour une Nissan Leaf, 16 heures pour une Zoé, 6 heures pour une Smart Forfour). Une durée qu’il est possible de diviser par 2 grâce à une prise Green’Up (autour de 200 €) ou par 3 et plus en faisant installer dans son garage ou sur une place de parking attenante à la maison un amplificateur mural Wallbox (dans les 1 000 €). Sur une borne rapide (station, parking public…), 30 à 60 minutes seront suffisantes pour refaire le plein.
À savoir :
un peu plus de 26 000 points de recharge, répartis dans plus de 10 000 stations, sont aujourd’hui librement accessibles en France.
4 - Leur entretien coûte très cher
Les moteurs électriques sont plus simples et donc plus robustes que les moteurs thermiques. Il n’y a pas de vidange à faire et les plaquettes s’usent moins vite en raison de l’assistance du moteur au freinage. Enfin, on estime qu’il faut seulement 2 € d’électricité pour parcourir 100 km contre, en ce début janvier 2019, 7 € pour un véhicule diesel consommant 5 l/100 km et 7,40 € pour une voiture tournant au SP95.
5 - Elles sont peu puissantes
La puissance des VE n’a rien à envier aux voitures thermiques. Sans parler des Tesla qui sont de véritables bolides (0-100 km/h en 3,7 s et une vitesse de pointe de 240 km/h pour la plus performante des Tesla 3), la Nissan Leaf affiche 150 CV (144 km/h en vitesse de pointe) et la Zoé 92 CV (135 km/h).
Aller au bureau à vélo électrique
Grâce à son moteur d’appoint, le vélo à assistance électrique (VAE) est en passe de devenir un véritable moyen de locomotion utilisable quotidiennement par tous les urbains. Petite présentation de ces bicyclettes d’un nouveau genre que de plus en plus de gens adoptent pour aller travailler ou pour se balader en ville comme à la campagne.
Un VAE ?
Un vélo à assistance électrique n’est par un vélomoteur. Il faut pédaler pour le faire avancer et que l’assistance se mette en marche.
Comme son nom l’indique, le vélo à assistance électrique (VAE) est un vélo. Autrement dit, il est nécessaire de pédaler pour le faire avancer. En revanche, contrairement à une bicyclette traditionnelle, il dispose d’un moteur d’appoint qui permet de ne jamais forcer. La puissance dudit moteur étant, en France, plafonnée à 250 watts. Concrètement, c’est comme si vous partagiez un tandem avec un coureur apte à s’engager dans le Tour de France. En fonction des modèles, le poids de ces vélos oscille entre 15 et 30 kg. Quant à la vitesse maximale au-delà de laquelle se coupe l’assistance, elle est de 25 km/h. Enfin, la batterie, rechargeable en quelques heures, permet de parcourir entre 50 et 120 km.
Au-delà des 250 watts
En principe, les VAE appartiennent à la catégorie « juridique » des cycles et non des vélomoteurs. Contrairement à ces derniers, il n’est pas nécessaire de les immatriculer, d’être titulaire d’un permis, d’une assurance, ou de porter un casque de moto pour les conduire (même si cela est recommandé). Mais attention, cette notion de cycle est très précise et ne s’applique qu’aux VAE dont la puissance ne dépasse pas 250 watts et dont le moteur se coupe dès qu’ils dépassent 25 km/h. S’il excède ces performances, le VAE devient juridiquement un bon vieux cyclomoteur…
À savoir :
les entreprises peuvent attribuer une « indemnité kilométrique vélo » à leurs salariés effectuant leurs trajets domicile-lieu de travail à vélo ou à VAE. Cette indemnité est de 0,25 € par kilomètre. Elle est exonérée de cotisations sociales dans la limite de 200 € par an et par salarié.
Différents modèles
Il existe de très nombreux modèles de VAE : urbain, VTT, triporteurs…
Il existe de très nombreux fabricants de VAE, en France comme à l’étranger, parmi lesquels on peut citer Moustache, Néomouv, Bergamont ou encore Amsterdam Air. À l’instar du marché traditionnel, il est possible de trouver des vélos urbains, des vélos de route et même des VTT. Les VAE urbains sont aujourd’hui les plus prisés. On y trouve d’élégantes bicyclettes équipées d’un porte-bagages supportant des sacoches et d’un panier à l’avant, mais aussi des vélos offrant moins d’équipements, mais arborant un look plus sportif.
Plusieurs fabricants proposent également des VAE pliables. Ce qui permet de les loger facilement dans le coffre d’un véhicule ou de les abriter dans un appartement ou même dans son bureau. Ce dernier point n’est pas à négliger, car ces vélos, compte tenu de leur valeur, constituent des cibles de choix pour les voleurs. Il est d’ailleurs conseillé de les assurer. Enfin, sont également proposés des vélos cargo à assistance électrique. Dotés de deux ou trois roues (triporteur), ils permettent aux particuliers de transporter leurs enfants ou de faire leurs courses sans devoir emprunter leur voiture. Ils offrent également la possibilité aux entreprises de les utiliser pour livrer leurs clients en milieu urbain.
Quel prix ?
Côté portefeuille, il faut compter entre 500 € et 9 000 € pour s’offrir un VAE et de 200 € à 1 000 € pour changer une batterie (dont la durée de vie moyenne est de 5 ans à raison d’une recharge tous les 2 jours).
RGPD : comment se mettre en conformité ?
Le règlement européen sur la protection des données (RGPD) est entré en vigueur le 25 mai dernier. Ce texte renforce les droits des personnes « fichées », mais introduit également une plus grande responsabilité des entreprises sur les conditions de recueil des données personnelles, leur gestion et leur sécurité. Présentation des grands principes du RGPD et de la marche à suivre pour les appliquer.
Domaine d’application de la réforme
Le règlement européen RGPD concerne toutes les structures qui collectent et traitent des données personnelles.
Les entreprises concernées
Tout organisme (entreprise, association…), privé ou public, est tenu d’appliquer le RGPD dès lors qu’il collecte ou traite des données personnelles pour son compte ou pour celui d’un tiers. Aucun autre critère, comme l’effectif ou encore le chiffre d’affaires, n’entre ici en ligne de compte. Toutes les entreprises sont donc concernées, ou potentiellement concernées, y compris les plus petites.
Les données personnelles
Une donnée personnelle est une information qui permet, à elle seule ou en la croisant avec d’autres données, d’identifier une personne soit directement (nom, prénom), soit indirectement (téléphone, courriel, adresse, photo, voix, caractéristiques sociales ou physiques, empreintes, ADN…). Dès lors qu’il regroupe ce type d’informations, un fichier (papier ou numérique) est considéré comme un traitement de données personnelles et doit ainsi être constitué et géré conformément au RGPD.
Recenser l’existant…
Pour se mettre en conformité avec le RGPD, les entreprises doivent commencer par recenser leurs fichiers contenant des données personnelles.
Pour se mettre en conformité, le premier travail consiste à recenser l’existant. Ainsi existe-t-il sans doute dans votre entreprise des fichiers de données personnelles tels que nous venons de les définir (fichiers clients, prospects, fournisseurs, employés, fichiers paie, formations, gestion des accès…). Tous doivent être recensés dans un registre. Registre dans lequel, pour chaque traitement, doivent être renseignés sa finalité, le type de données personnelles présentes (noms, salaires, adresses…), les personnes ou les services qui peuvent y accéder et enfin la durée de conservation de ces données.
Important :
www.cnil.fr… pour identifier les actions à mener
Responsables des fichiers de données personnelles qu’elles détiennent, les entreprises doivent gérer les traitements de ces données de façon raisonnée.
Le principe du RGPD consiste à responsabiliser les détenteurs de fichiers. Il vous revient donc, en tant que chef d’entreprise, d’adopter une approche raisonnée de ces traitements et de leur gestion. Sachant que les données personnelles ne doivent pas être conservées au-delà de ce qui est nécessaire. Pour chacun des traitements mis en œuvre dans votre entreprise, vous devez donc vous poser les questions suivantes :
Mon entreprise a-t-elle besoin de ces informations ?
Il est possible que vous ayez créé des fichiers il y a quelques années dans un objectif qui n’est plus d’actualité (liste de prospects pour le lancement d’une activité abandonnée...). Si c’est le cas, vous n’avez plus besoin de ces traitements. Supprimez-les.
Vous devez également vérifier que chaque type d’information recueilli pour le traitement est absolument nécessaire (par exemple, est-il pertinent de connaître le nombre d’enfants de chaque salarié si aucun avantage salarial n’est attaché à cette information ?). Si ce n’est pas le cas, supprimez les types de données non pertinents.
Enfin, vous devez faire en sorte que vos fichiers soient mis à jour régulièrement. Autrement dit, que les données qui n’ont plus rien à y faire soient supprimées : données relatives à d’anciens clients dans une base clients, informations dont la durée de conservation est dépassée…
Qui accède à ces données ?
Seules les personnes habilitées doivent pouvoir accéder aux données personnelles. Vous devez donc veiller à les compartimenter (les mettre sous clé s’il s’agit d’informations papier, ou sur un espace à accès restreint lorsqu’elles sont numériques).
Ces informations sont-elles protégées ?
Vous êtes responsable des données personnelles que vous hébergez ou que vous faites héberger par un prestataire. Vous devez donc prendre les mesures nécessaires pour minimiser les risques d’atteinte à leur intégrité et à leur confidentialité. Ainsi, pour chaque traitement, il vous faut évaluer le niveau de sécurité existant (complexité des mots de passe, performance et mise à jour des antivirus, politique de chiffrement, sécurité des locaux, politique de sauvegarde…) et, le cas échéant, le rehausser.
Et attention, avant de lancer un traitement, lorsque les données traitées (ethniques, religieuses, génétiques…) ou l’objectif du traitement (notation des personnes, télésurveillance, traitement relatif à des personnes vulnérables…) sont dits « sensibles », il peut être nécessaire de respecter une démarche particulière (PIA : Privacy Impact Assessment). N’hésitez pas, dans ce cas, à vous rapprocher de la Cnil.
Attention :
si, accidentellement ou de manière illicite, votre entreprise est victime d’une violation de données personnelles (données détruites, perdues ou divulguées) et que cette violation est susceptible de présenter un risque pour les droits des personnes concernées, vous devez le signaler à la Cnil dans les 72 heures.
Désigner un DPO
Lorsque la situation est complexe, la Cnil conseille de désigner un délégué à la protection des données (DPO), qui peut être un collaborateur ou un prestataire, et qui peut être mutualisé entre plusieurs entreprises. Le DPO est là pour conseiller le chef d’entreprise sur ses obligations légales en matière de protection des données, contrôler le respect de la réglementation, mais aussi coopérer avec la Cnil. Mais seuls les organismes qui opèrent des traitements à risques ont l’obligation d’en désigner un. Plus précisément, l’article 37 du RGPD impose la désignation d’un DPO lorsque :
- le traitement est effectué par une autorité publique ou un organisme public, à l’exception des juridictions agissant dans l’exercice de leur fonction juridictionnelle ;
- les activités de base du responsable du traitement ou du sous-traitant consistent en des opérations de traitement qui, du fait de leur nature, de leur portée et/ou de leurs finalités, exigent un suivi régulier et systématique à grande échelle des personnes concernées ;
- les activités de base du responsable du traitement ou du sous-traitant consistent en un traitement à grande échelle de catégories particulières de données visées à l’article 9 et de données à caractère personnel relatives à des condamnations pénales et à des infractions visées à l’article 10 du RGPD.
Respecter les droits des personnes fichées
Les entreprises doivent respecter les droits des personnes fichées et les informer de ces droits et des moyens pour les exercer.
Les personnes « fichées » ont des droits sur leurs données. Droits que vous devez respecter tant lors de la création qu’au cours de la gestion du traitement.
Ainsi, lorsque vous collectez des données personnelles, vous devez informer les personnes concernées de la finalité du traitement, de la raison de ce recueil de données et du délai pendant lequel elles seront conservées, leur préciser les personnes qui auront accès à ces données (service, prestataire…) et leur indiquer les modalités d’exercice de leurs droits (via une messagerie, un espace dédié sur un site…).
Parmi ces droits figurent, notamment, un droit d’accès leur permettant de connaître l’ensemble des données les concernant, un droit de rectification (permettant de les corriger), un droit d’opposition et d’effacement (lorsque le fichier n’est pas obligatoire) ou encore un droit à la portabilité (afin, par exemple, de transférer les données à un autre prestataire). Il vous revient donc de mettre en place un processus offrant à ces personnes la possibilité d’exercer leurs droits simplement et rapidement.
Pour permettre aux personnes (clients, prospects) dont vous traitez les données d’exercer leurs droits, vous pouvez par exemple prévoir un formulaire de contact spécifique sur votre site Internet ou mettre en place un numéro de téléphone ou une adresse de messagerie dédiée.
Attention :
le règlement RGPD ne renforce pas seulement les obligations qui pèsent sur les gestionnaires de fichiers. Il prévoit également un durcissement des sanctions. Ainsi, en cas de manquement grave, une amende pouvant aller jusqu’à 20 M€ ou 4 % du chiffre d’affaires réalisé pourra être infligée. Sachez néanmoins qu’en ces premiers mois d’application, la Cnil devrait être clémente avec les entreprises contrôlées dès lors qu’elles auront entamé leur processus de mise en conformité.
Optimiser la couverture mobile dans l’entreprise
Aujourd’hui, des milliers d’entrepreneurs français sont implantés dans des zones dites à « couverture limitée » dans lesquelles, comme le précise l’Autorité de régulation des communications (Arcep), il faut, le plus souvent, sortir des bâtiments pour téléphoner avec son mobile. Une situation pour le moins inconfortable qu’il est possible de corriger en installant un amplificateur dans ses locaux ou en faisant transiter les appels par une box Internet. Explications.
L’amplificateur de signal
Grâce à cet appareil, les signaux émis pour tous les opérateurs retrouvent suffisamment de puissance pour permettre de téléphoner dans des locaux mal couverts.
Le signal émis par les antennes des différents opérateurs étant trop faible, on va installer un amplificateur dans les locaux de l’entreprise. Le système se compose d’une antenne qui, idéalement, sera fixée à l’extérieur du bâtiment et en hauteur (près du toit ou d’une fenêtre). Cette antenne sera reliée par câble à un amplificateur qui sera lui-même connecté à une antenne intérieure. Grâce à cette dernière, les célèbres petites barres referont leur apparition sur les écrans des téléphones mobiles des personnes travaillant dans l’entreprise. Ces amplificateurs sont vendus de 150 € à plus de 400 € en fonction de la taille du bâtiment. Il faut veiller à ce qu’ils amplifient bien les signaux de tous les opérateurs.
L’installation de ce boîtier et de son antenne nécessite quelques compétences techniques et un peu de temps. Confier cette opération à un professionnel est ainsi conseillé.
À noter :
des amplificateurs de signaux peuvent aussi être installés dans des véhicules afin de garantir une connexion continue aux réseaux téléphoniques. Leur prix est comparable à celui des amplificateurs destinés aux locaux.
La femtocell
Faire transiter les appels par Internet est une bonne solution pour palier la mauvaise couverture téléphonique d’une entreprise.
La « femtocell » est un boîtier fourni par un opérateur téléphonique qui vient se brancher sur une box.
Ce dernier émet un signal 3G et permet ainsi au client de l’opérateur de téléphoner et de surfer via son smartphone en passant par Internet. Dans la plupart des cas, ces boîtiers sont compatibles avec les box des autres opérateurs. Une femtocell SFR pourra donc, par exemple, se brancher sur une box Orange. En revanche, il faut savoir qu’un boîtier femtocell n’amplifie que le réseau de l’opérateur qui le fabrique. Comprenez : une femtocell Orange ne permet de ne prendre en charge que des appels et autres sms émanant d’un téléphone mobile doté d’un abonnement Orange.
Certains opérateurs fournissent gratuitement les boîtiers femtocell à leurs clients, d’autres facturent des frais d’envoi ou des frais de mise en service.
Bien entendu, cette solution ne sera véritablement efficace que si le débit offert par la box (ADSL) est élevé. Malheureusement, il est fréquent que certaines zones rurales soient frappées d’une double peine : une mauvaise couverture mobile et un faible débit Internet en raison de la distance élevée séparant la box et le relais téléphonique auquel elle est reliée. Dans cette situation, il est préférable d’opter pour un amplificateur de signal.
Et le VoWi-Fi ?
Si l’on dispose d’un smartphone récent, il est aussi possible de téléphoner via Internet en utilisant le VoWi-Fi.
Le VoWi-Fi peut également permettre de téléphoner dans des zones mal couvertes. Ici, le smartphone va directement se connecter en Wi-Fi à une box ou à un hotspot public. L’intérêt de ce système est qu’il ne nécessite aucun investissement et fonctionne quel que soit l’opérateur téléphonique (un téléphone équipé d’un abonnement Orange pourra ainsi se connecter à une box SFR, par exemple). En revanche, il présente pour principaux inconvénients de ne fonctionner qu’avec des smartphones compatibles (des modèles récents et haut de gamme) et de n’avoir été déployé, pour le moment, que par 3 opérateurs sur 4 (tous sauf Free, pour le moment).
Attention :
comme dans le cas de la femtocell, le VoWi-Fi ne permettra de régler un problème de couverture téléphonique que si le débit proposé par la box à laquelle on se connecte est suffisant.
Avis des consommateurs : de nouvelles règles de publication
Depuis le 1er janvier, les conditions de mise en ligne des avis de consommateurs sont strictement encadrés par la loi.
Les avis des clients publiés en ligne sont de plus en plus souvent pris en compte dans la décision d’acheter. C’est du moins ce que montrent les sondages réalisés sur le sujet. Selon une enquête réalisée par Trialpanel en 2016, 85 % des internautes affirmaient ainsi lire les commentaires déposés par les clients sur les produits qu’ils envisagent d’acheter. Une autre étude réalisée par OpinionWay pour La Poste et PriceMinister, en 2014, montrait déjà que 58 % des Français renoncent régulièrement à un achat à cause des commentaires négatifs lus sur Internet ou les réseaux sociaux.A contrario, 30 % des personnes interrogées affirmaient réaliser régulièrement des achats spontanés suite à des commentaires positifs trouvés sur Internet ou sur les réseaux sociaux.
Vu leur poids sur la décision d’achat, l’authenticité des avis ainsi que leur sincérité doivent être sinon garanties, du moins contrôlables. C’est dans ce but qu’un certain nombre de dispositions visant à encadrer la publication des avis en ligne ont été adoptées au sein de la loi pour une République numérique votée en octobre 2016. Des dispositions dont les modalités d’application, dévoilées par décret, sont effectives depuis le 1er janvier 2018.
Une plus grande transparence
Pour lutter contre la multiplication des faux avis ou la mise en avant des seuls avis positifs, la loi impose une plus grande transparence dans leurs modalités de publication.
L’objectif du législateur est ici de faire en sorte que le consommateur ne soit pas trompé lorsqu’il s’apprête à acheter un produit. Comme le rappelle la DGCCRF dans ses comptes rendus d’enquête, plusieurs pratiques « discutables » sont régulièrement constatées. La première consiste à mettre en avant les avis positifs et à supprimer ou à faire passer en fin de classement les plus critiques. La seconde, encore plus malhonnête, revient à rédiger ou à faire rédiger par les prestataires des faux avis, bien entendu, positifs.
Pour lutter contre ces pratiques, plusieurs obligations pèsent désormais sur les entreprises et les personnes dont l’activité « principale ou accessoire » consiste « à collecter, à modérer ou à diffuser des avis en ligne provenant de consommateurs ». Ces derniers sont dorénavant tenus de faire apparaître plusieurs informations en rapport avec les avis publiés par les consommateurs :- la date de publication de chaque avis ainsi que celle de l’expérience de consommation concernée par ce dernier (date d’achat, par exemple) ;- l’existence ou non d’une procédure de contrôle des avis ;- les critères de classement des avis (chronologique, par exemple).
En outre, sur le site Internet, dans une rubrique « facilement accessible », l’éditeur doit préciser le délai maximal de conservation et de publication d’un avis, mais aussi indiquer s’il propose ou non une contrepartie pour inciter les consommateurs à déposer un avis.
Dans cette même rubrique, doivent également être présentées les modalités de contrôle des avis, s’il en existe un. L’éditeur a ainsi l’obligation de préciser la nature des actions mises en œuvre lors de la collecte des avis et de leur diffusion. Il doit, en outre, préciser les modalités arrêtées pour contacter l’auteur de l’avis, mais aussi les motifs justifiant le refus de publier un avis.
Attention :
tout manquement à ces obligations est passible d’une amende administrative pouvant atteindre 75 000 € pour une personne physique et 375 000 € pour une personne morale.
Allez plus loin avec la norme Afnor
Pour retrouver la confiance des consommateurs, les entreprises peuvent adopter la norme NF Z74-501.
Lancée en juillet 2013 par l’Afnor, la porte sur le traitement des avis de consommateurs en ligne. En mettant en place cette norme, rappelle l’Afnor, « une entreprise assure la fiabilité et la transparence des trois processus du traitement des avis en ligne : leur collecte, leur modération par le gestionnaire et leur restitution ».
Concrètement, en adoptant cette norme, l’entreprise garantit notamment que :- l’auteur de l’avis est identifiable et contactable ;- la modération des avis s’effectue rapidement eta priori ;- aucun avis n’est acheté ;- tous les avis sont affichés ;- les avis sont affichés de manière chronologique…
L’adoption de la norme NF Z74-501 peut donner lieu à une certification.
Imprimer un document à partir de son smartphone
Le smartphone est aujourd’hui un des principaux outils de travail de nombre de professionnels. Il nous permet notamment, outre de téléphoner et de surfer sur Internet, d’envoyer, de recevoir et même de partager des documents de différents types. Et contrairement à ce que beaucoup pensent, il peut également être utilisé pour lancer directement une impression, notamment en utilisant le réseau Wi-Fi. Explications.
Une imprimante Wi-Fi
De plus en plus d’imprimantes sont dotées d’une antenne Wi-Fi. Cela leur permet d’échanger simplement des données avec un smartphone ou une tablette.
Pour imprimer un document présent sur un smartphone sans passer par un ordinateur, il faut avant tout disposer d’une imprimante Wi-Fi. C’est via ce réseau que le smartphone sera relié à l’imprimante. Pour y parvenir, les utilisateurs d’un iPhone ou d’un iPad devront d’abord vérifier que leur imprimante est bien compatible avec « AirPrint », le protocole de transfert d’Apple. Il faut ici savoir que les imprimantes Wi-Fi les plus récentes (y compris les moins chères) sont compatibles AirPrint. Ensuite, il leur faudra ouvrir sur leur smartphone le document qu’ils souhaitent imprimer, et effectuer une pression sur l’icône de partage, puis l’icône d’impression pour sélectionner l’imprimante. Une fois cette dernière reconnue par le smartphone, ils n’auront plus qu’à appuyer sur le bouton « imprimer ».
À savoir :
de plus en plus d’imprimantes sont équipées d’une puce NFC (communication à courte distance). Pour établir une communication entre les 2 appareils, il suffit alors d’approcher le smartphone à moins de 10 cm de l’imprimante.
Et sous Android ?
Il existe de nombreuses applications qui permettent à un smartphone d’adresser un fichier à une imprimante.
Pour les smartphones et les tablettes Android, la situation est un peu différente. À défaut d’un système unique, il faudra se rabattre sur une application qui jouera le rôle du pilote de l’imprimante Wi-Fi. Téléchargeables sur la plate-forme Play, certaines, comme « Happy2Print », sont multisystèmes, d’autres sont dédiées à une seule marque. Une fois installée sur le smartphone ou la tablette, l’application permettra très simplement de reconnaître l’imprimante, puis de lancer l’impression en partant du document ou des fonctions de l’application.
À savoir :
la plupart de ces applications faisant fonction de pilote d’impression permettent également de gérer une connexion par câble entre le smartphone et l’imprimante. Cette solution est intéressante si l’on dispose d’une imprimante non équipée d’une antenne Wi-Fi ou bluetooth. Un câble doté d’une prise USB mâle à un bout et d’une autre mini USB mâle à l’autre est nécessaire.
Précision :
relier un smartphone ou une tablette à une imprimante permet également d’utiliser cette dernière pour scanner un document.
Google Cloud Print
Très utilisée, l’application Google Cloud Print permet également d’imprimer via son smartphone en toute simplicité.
Google Cloud Print est un service de gestion d’impression qui permet d’imprimer, notamment, à partir d’un smartphone ou d’une tablette. Concrètement, l’utilisateur doit disposer d’un compte sur Google, d’une imprimante comptatible Wi-Fi (Google Print Ready), du navigateur Chrome et de l’application Google Cloud Print (librement téléchargeable sur Play) installée sur son smartphone. Une fois lancée, l’impression part dans le « cloud », puis est dirigée vers une imprimante connectée à Internet via le réseau Wi-Fi. Grâce à ce passage par le « cloud », il est possible de communiquer le fichier à une imprimante située à proximité ou dans les locaux d’un partenaire à l’autre bout de la planète !
Les produits reconditionnés ont le vent en poupe
Selon une étude de l’institut GfK, 2 millions de téléphones portables reconditionnés ont été vendus en France en 2016, ce qui représente tout de même 10 % du marché hexagonal des smartphones. Plus qu’une niche, il s’agit donc d’une véritable tendance de consommation. Une tendance portée par le souhait de ne pas toujours devoir payer le prix fort, mais également par celui d’adopter un comportement écoresponsable.
Un produit reconditionné ?
Des produits d’occasion remis dans un état proche du neuf par un professionnel.
Un produit reconditionné est un produit d’occasion qui a été remis dans un état proche du neuf par un professionnel. Concrètement, les pièces défectueuses ont été changées, les éventuels logiciels qui les équipent reparamétrés en « mode usine » et leur enveloppe extérieure briquée au point qu’il devient difficile d’imaginer qu’il s’agit d’une seconde main. L’origine des produits est variée. Certains d’entre eux sont des matériels d’exposition et de démonstration, d’autres des produits retournés en raison d’un dysfonctionnement ou d’une résiliation dans le cadre d’une vente à distance. Les derniers, enfin, sont de véritables occasions. Mais attention, quelles que soient leur origine ou l’action de remise en état initiée, le produit est garanti par le reconditionneur pendant une longue période. Chez RemadeInFrance, un des leaders français spécialisé dans la vente d’iPhone, d’iPad et d’Apple Watch reconditionnés, les garanties sont ainsi comprises entre 1 et 2 ans. Rien à envier au neuf, donc.
Des bonnes affaires
Concernant les prix, les économies sont au rendez-vous. Il est, par exemple, possible, sur le site de RemadeInFrance, de s’offrir un iPhone 7 Plus reconditionné pour 779 € (contre 909 € neuf) ou un iPad Pro 12,9 pouces et 256 Go pour 779 € au lieu d’un peu plus de 1 000 € pour une tablette sortie d’usine. Chez Back Market, une plate-forme française sur laquelle sont réunis des produits reconditionnés par une centaine d’entreprises, l’on peut trouver un iPhone 6S à moins de 350 € (contre 650 € neuf) ou encore un réfrigérateur Whirlpool 50 % moins cher que le neuf. Tous matériels confondus, les remises peuvent même dépasser 70 %. Pour le moment, les reconditionneurs centrent leur offre sur les smartphones, les tablettes ou les ordinateurs portables, les téléviseurs ainsi que le matériel photo et hi-fi. Mais d’autres secteurs sont en train d’émerger. Ainsi, par exemple, Aramis Auto reconditionne des voitures d’occasion dans ses ateliers de Donzère, dans la Drôme, avant de les mettre en vente sur son site Internet.
L’économie circulaire
Des motivations éthiques et écologiques.
Le prix n’est pas la seule raison qui pousse de plus en plus de Français à s’intéresser aux produits reconditionnés. Pour nombre d’entre eux, acheter des appareils d’occasion remis à neuf traduit également un engagement écoresponsable. D’abord, cette activité est créatrice d’emplois le plus souvent localisés en France. RemadeInFrance, lancée en 2014 à Poilley dans la Manche, emploie déjà près de 450 personnes essentiellement dans ses ateliers. En outre, les acteurs de l’insertion sont également très présents sur ce marché. C’est le cas, notamment, de la société coopérative d’intérêt collectif Les Ateliers du Bocage. Née d’une communauté d’Emmaüs, elle compte aujourd’hui plus de 200 salariés.
Le label « économie circulaire »
Ensuite, les produits reconditionnés séduisent car ils s’inscrivent dans une économie dite « circulaire ». Car ce n’est un secret pour personne : les matières premières de la planète s’épuisent et notre système économique linéaire, c’est-à-dire basé sur le cycle production/utilisation/destruction, n’est plus soutenable. Il faut repenser nos modèles de production afin d’adopter un cycle plus vertueux intégrant de nouvelles étapes : écoconception, utilisation, réparation, réutilisation et enfin recyclage. Le marché des produits reconditionnés s’inscrit dans cette démarche écoresponsable.
Planifier ses réunions grâce à Doodle et à ses concurrents
Depuis plus de 10 ans, le site Doodle et quelques autres permettent à tout un chacun de créer des sondages afin, notamment, de planifier et d’organiser un évènement
Doodle, le précurseur
Doodle est un des outils de planification les plus anciens et les plus utilisés d’Internet.
Doodle a été créé en 2003 pour réaliser des sondages auprès d’un petit nombre de personnes. Concrètement, l’outil permet de concevoir un questionnaire simple et de l’adresser, par courriel ou via une page sur un réseau social (comme Twitter), à différents destinataires. Ces derniers étant, bien entendu, invités à y répondre. Il est possible, par exemple, d’utiliser cet outil pour organiser une réunion. Dans cette hypothèse, les personnes sont invitées à choisir, parmi les propositions de dates, celles qui les satisfont. Le créateur du « Doodle », grâce à un tableau récapitulatif, est ainsi informé des disponibilités de chacun et surtout du ou des créneaux convenant, au mieux, à tous ou, au pire, au plus grand nombre.
Au-delà des réunions
Doodle n’est pas qu’un simple outil de planification d’événements. La formulation des questions et des propositions que les personnes interrogées doivent cocher est libre. Il est donc possible de créer des sondages sur un nombre infini de thèmes (choix des plats proposés par un traiteur lors d’un déjeuner professionnel, nombre de places disponibles dans les voitures des collaborateurs et des partenaires pour covoiturer à l’occasion d’une visite de chantier…).
Des fonctions gratuites
Les fonctions de base, c’est-à-dire de création et d’envoi d’un sondage, mais aussi de connexion à son agenda (planification d’événements), sont gratuites. En revanche, la version complète (envoi de rappels automatiques, absence de publicité, personnalisation de l’interface...) coûte 29 € par an.
Un outil simple
Doodle est un outil ergonomique et très simple. Le créateur du sondage doit seulement se connecter sur le site (www.doodle.com) puis, directement sur la page d’accueil, cliquer sur le bouton « Créer un sondage » (pour planifier une réunion) ou « Créer un choix textuel » (pour les autres types de sondages). Il lui reste alors à remplir le formulaire (titre de la réunion, par exemple, lieu, dates et horaires proposés, nom et courriel de l’organisateur) et à valider l’opération. Apparaît alors un lien Internet qu’il suffit d’adresser aux personnes que l’on souhaite convier. Ces dernières n’auront plus qu’à cliquer dessus, puis à cocher les réponses qui leur conviennent.
Doodle est également proposé sous la forme d’une application gratuite pour tablettes et smartphones (iOS et Android).
À savoir :
les sondages peuvent être paramétrés afin de limiter le nombre de vote par proposition ou par personne, ou encore de garantir l’anonymat des répondants.
Des solutions alternatives
Doodle n’est pas le seul outil de planification disponible en ligne. Il en existe d’autres tout aussi efficaces et conviviaux.
Moreganize
Totalement gratuit et sans inscription, Moreganize (www.moreganize.ch) permet, comme Doodle, de planifier un évènement en créant, puis en diffusant un questionnaire. Un modèle de type « date » est proposé ainsi qu’un modèle de sondage en « texte libre ». Pour faciliter la préparation de l’évènement en question, Moreganize offre également la possibilité de créer, très simplement, des « to do list ».
Framadate
Framadate (framadate.org) est également gratuit. Il offre la possibilité de créer des sondages de type « date » et « classique », c’est-à-dire dans lesquels des propositions sont rédigées par le concepteur du sondage. Les fonctions de paramétrage proposées permettent de restreindre l’accès au sondage via un mot de passe, d’interdire aux sondés de modifier les réponses des autres, mais aussi d’être alerté par courriel de l’intégration d’une nouvelle réponse ou d’un nouveau commentaire. L’outil est intuitif et convivial.
Zoutch!
Zoutch! (www.zoutch.com) est sans doute le plus sérieux concurrent de Doodle. Gratuit et sans inscription, il offre une interface qui permet de mêler différents types de questions dans un seul et même sondage. Par exemple, afin de préparer une réunion suivie d’un pique-nique entre collègues, il est possible de créer un formulaire qui invite les destinataires à présenter leurs disponibilités en termes de date, à préciser s’il viennent en voiture et peuvent donc prendre en charge des collègues, s’ils sont prêts à emporter des objets, des boissons ou de la nourriture… Une liste de modèles de sondages (de la réunion simple à la soirée pyjama, en passant par l’organisation d’une formation) est également proposée aux utilisateurs de Zoutch!.
Qwant, un moteur qui respecte la vie privée
Lancé en 2013, Qwant est un moteur de recherche européen d’origine française (www.qwant.com) qui, sans inquiéter les géants Google et Yahoo!, séduit chaque jour davantage d’utilisateurs. Ses atouts : en plus d’offrir une qualité et un confort de recherche de bon niveau, il préserve la vie privée des internautes. Présentation de ce moteur pas comme les autres qui a pour ambition de séduire plus de 5 % des européens d’ici 2019.
Respecter la vie privée
Alors que Google et Bing tablent sur la valorisation des données utilisateurs, Qwant fait le pari du respect de la vie privée.
Contrairement aux leaders du marché, Qwant ne recueille et ne stocke aucune donnée sur ses utilisateurs afin de leur proposer des publicités dites « ciblées ». Chacun a donc la certitude que ses pratiques de navigation ne sont ni scrutées, ni enregistrées, ni revendues. En outre, cette politique de neutralité se traduit par le fait que le moteur ne tient pas compte de nos « habitudes » de recherche dans sa sélection de résultats. Ainsi, lorsque Google tente de nous satisfaire en nous proposant prioritairement les sites que nous visitons le plus souvent (au risque de nous proposer un terrain d’exploration de plus en plus réduit), Qwant nous offre un Internet sans filtre à chaque recherche. Certains trouveront l’expérience peu confortable, d’autres, au contraire, seront heureux de (re)découvrir l’immensité et la richesse infinie de la Toile.
Sous le capot
Qwant, au même titre que les géants du marché, est le seul maître de sa technologie. Ses équipes ont développé le moteur et l’index sur lequel il s’appuie est propriété de l’entreprise. Il y a quelques semaines, elle s’est, en outre, équipée de supercalculateurs DGX-1 (produits par Nvidia). Ces machines, très puissantes, sont conçues pour affiner (les experts parlent d’intelligence artificielle) l’analyse et la sélection des contenus (textes, images, vidéos…) et donc pour mieux répondre aux requêtes des utilisateurs de Qwant.
Quel modèle économique ?
Les fondateurs de Qwant misent sur un modèle économique traditionnel et non intrusif. Concrètement, le moteur se finance, comme le faisait autrement tous ses concurrents, en prenant une commission sur les ventes réalisés sur son espace « shopping » et en affichant des publicités, non pas en rapport avec les habitudes de consommation de ses utilisateurs, mais en lien avec le thème de la recherche. Par exemple, lancer une requête sur le « prix d’un carburateur », fera apparaître des annonces de constructeurs automobiles ou de vendeurs de pièces détachées. Grâce à ce modèle économique classique, les dirigeants de Qwant visent un chiffre d’affaires de 500 millions d’euros en 2021. Un objectif qui ne semble pas effrayer les investisseurs comme la Caisse des dépôts et le groupe Axel Springer qui n’ont pas hésité, il y a quelques mois, à remettre près de 20 millions d’euros au capital.
Simple et convivial
Qwant n’est pas qu’un moteur de recherche discret et puissant. Il est aussi très simple à utiliser.
L’interface de Qwant est sobre. L’espace central est dédié aux résultats de recherche. Ces derniers venant, par défaut, s’afficher sur 3 colonnes : la première est consacrée au « Web », la seconde aux actualités et la dernière aux informations issues des réseaux sociaux (essentiellement Twitter pour le moment). Il est néanmoins possible, d’un simple clic sur la barre de tâches du moteur (bandeau vertical présent sur la partie gauche de l’écran), de ne choisir d’afficher que les résultats d’une seule de ces 3 rubriques. Il est aussi envisageable de cibler les recherches sur des vidéos, des images ou encore des produits commercialisés par des sites marchands.
Les langues régionales
Par défaut, la langue de recherche est le français. Mais, depuis quelques temps, il est également possible d’effectuer des recherches dans des langues régionales et d’opter pour une version du moteur qui mettra en avant les contenus régionaux (résultats web, images, commentaires des réseaux sociaux…). Concrètement il suffit de cliquer sur le drapeau français présent en haut et à droite de la page d’accueil du moteur, puis de sélectionner la langue régionale désirée. Pour le moment, le moteur permet de faire des recherches en Corse, en Breton, en Catalan et en Basque.
Une version pour smartphone
Comme ses rivaux, Qwant n’est pas uniquement disponible sur les ordinateurs fixes ou portables (PC, Mac). Il existe également une application pour tablettes et smartphones (Android, iOS), baptisée Qwant Mobile, qui associe le moteur au navigateur Liberty. Ce dernier, comme Qwant, ne recueille aucune donnée sur ses utilisateurs. Une sélection d’applications sécurisées et non intrusives (gestionnaires de mots de passe, messageries instantanées...) est aussi intégrée à l’outil. Qwant Mobile est disponible sur les plates-formes de téléchargement iTunes et Play.
Coup d’œil sur les serrures biométriques
Il y a quelques années, seules dans les films d’anticipation apparaissaient des serrures biométriques. Aujourd’hui, la réalité a rattrapé la fiction et particuliers comme entreprises ont recours à ces systèmes d’identification basés sur des caractéristiques physiques pour sécuriser l’accès à des locaux, des matériels informatiques ou même des logiciels. Zoom sur les techniques déjà opérationnelles et sur le cadre juridique de leur utilisation.
De l’empreinte à l’iris
Il existe différentes technologies utilisées par les fabricants de verrous biométriques. Certaines sont déjà commercialisées d’autres sont encore en cours d’expérimentation.
Le lecteur d’empreinte palmaire est le système le plus connu. Sur le marché depuis plusieurs années, via une lentille sur laquelle il faut poser un doigt, il vient vérifier qu’une empreinte digitale est bien conforme à un gabarit de référence. Cette technique est utilisée sur des portes, des ordinateurs portables ou encore sur de plus en plus de smartphones.
Dans plusieurs entreprises, sont également mis en œuvre des lecteurs biométriques analysant la forme de la main ou celle du visage, des lecteurs scannant le réseau vasculaire des doigts ou encore l’iris de l’œil. Ces types de lecteurs sont bien plus fiables que les lecteurs d’empreintes digitales. Une fiabilité accrue qui tient notamment au fait que ces verrous s’appuient sur des caractéristiques biométriques dites « sans traces ». S’il est relativement simple de retrouver (et donc de reproduire) les empreintes d’une personne dans son lieu de vie, il est beaucoup plus complexe de reconstituer le réseau vasculaire de ses doigts ou de sa main.
Moins de 200 € seront suffisants pour s’offrir une serrure à lecteur d’empreinte alors qu’il faudra débourser plus de 700 € pour un lecteur de la forme de la main ou pour une serrure analysant le système veineux ou l’iris.
En plus ou en remplacement de ces techniques déjà éprouvées, d’autres systèmes devraient bientôt être proposés sur le marché des serrures biométriques. Certains s’appuieront sur l’analyse de la voix ou du système veineux de l’œil. D’autres, plus surprenants devraient être capables d’identifier une personne sans se tromper en se basant sur la forme de son canal auditif, sa démarche et même son rythme cardiaque.
L’utilisation de la biométrie dans les entreprises
Les informations utilisées par les serrures biométriques sont, par nature, des données personnelles. Leur utilisation, dans le monde des entreprises, ne peut intervenir que dans le respect d’une réglementation très stricte.
Tout d’abord, il convient de préciser que la mise en place d’un système de serrures biométriques dans une entreprise n’est pas une opération anodine qui peut être lancée sans réflexion préalable. Le contrôle d’accès biométrique étant très intrusif en matière de données personnelles, sa mise en place ne peut s’effectuer que si elle est justifiée. Autrement dit, rappelle la Cnil, un tel système ne doit être déployé que si les systèmes traditionnels (badge, clé, vidéosurveillance, gardiennage…) s’avèrent insuffisants, notamment par rapport à l’activité de l’entreprise. Ainsi, une entreprise qui stocke des produits dangereux ou qui effectue des recherches scientifiques stratégiques sera bien plus légitime à adopter la biométrie qu’une boulangerie ou qu’une entreprise de services classiques. La Cnil précise que « les responsables du traitement voulant se conformer à ces autorisations devront démontrer au moyen d’une documentation étayée, que le contexte de mise en œuvre du contrôle d’accès justifie le recours à un traitement biométrique ».
L’utilisation des systèmes biométriques est encadrée par la loi et doit faire l’objet, lors de sa mise en place, d’une déclaration simplifiée à la Cnil. Deux situations sont prévues. La première (autorisation unique AU-052) concerne les systèmes biométriques permettant aux personnes de « garder la maîtrise de leur gabarit » soit en détenant un support sur lequel ledit gabarit est stocké (dans cette hypothèse, il doit être inséré dans le lecteur pour permettre l’ouverture), soit en rendant illisible par des tiers le gabarit stocké sur le lecteur (ici, seule la personne concernée détient la clé de déchiffrement permettant d’accéder en clair à son gabarit). Ce système est privilégié par la Cnil dans la mesure où il réduit les risques de détournement des données des personnes utilisant les serrures biométriques.
La seconde situation (autorisation unique AU-053) s’applique aux dispositifs biométriques qui, pour des raisons de sécurité (qui devront être justifiées par l’entreprise), ne permettent pas aux personnes de garder la maîtrise de leur gabarit. Dans cette situation, l’entreprise devra « adopter des mesures permettant de limiter au maximum les risques pour la vie privée ». Des mesures qui devront être présentée dans une documentation.
Faire face aux cyberattaques
Les multinationales ne sont pas les seules victimes des attaques informatiques lancées par les hackers. Les PME et les ETI, souvent moins préparées et donc plus vulnérables, font également partie des cibles de choix des cyberpirates du monde entier. En outre, on estime qu’en 2015, la cybercriminalité aurait coûté pas moins de 3 milliards d’euros aux entreprises françaises, toutes tailles confondues. Une bonne occasion de faire le point sur les dangers encourus mais, aussi et surtout, sur les techniques et méthodes à déployer pour atténuer la survenue des attaques et limiter leurs conséquences.
Rappel des risques
Vol, destruction des données, indisponibilité du matériel informatique, extorsion de fonds… les conséquences d’une cyberattaque peuvent être importantes pour l’entreprise qui en est la victime.
Le vol...
Données commerciales, coordonnées personnelles et surtout bancaires, voire secrets industriels sont les cibles favorites des cyberattaques. Ainsi, quels que soient sa taille ou son secteur d’activité, une entreprise détient forcément des éléments d’informations à caractère personnel ou confidentiel susceptibles d’être piratés car tout simplement monnayables.
... et la perte de données
Mais l’attaque d’un virus ou le déploiement d’un cheval de Troie n’a pas pour seule vocation de subtiliser des informations. Quelquefois, l’ambition, bien plus dérisoire mais tout aussi lourde de conséquences, n’est que de détruire des données ou d’en empêcher l’accès.
À l’origine du vol ou de la perte, des attaques lancées le plus souvent automatiquement à partir d’ordinateurs infectés (virus, cheval de Troie, ver...), mais aussi par un hacker qui agit de l’extérieur.
Des outils indisponibles
Ordinateurs contaminés, réseau informatique ou site Internet rendus indisponibles… Ce type de risques peut rapidement se révéler problématique pour toute entreprise qui s’appuie fortement sur un système informatique pour exercer son activité.
L’indisponibilité de l’outil informatique peut résulter d’un virus informatique accidentellement « contracté » ou d’une attaque informatique volontairement menée contre l’entreprise tels qu’un déni de service (DoS), une attaque visant délibérément à rendre indisponible pendant un temps indéterminé les services ou les ressources d’une entreprise.
Pour parvenir à leurs fins, les pirates envoient un très grand nombre de requêtes aux serveurs de l’entreprise ou à ses sites Internet afin de les mettre en état de surcharge. Il devient donc impossible de les utiliser ou de les consulter. Et attention, le plus souvent les pirates, pour perpétrer leur attaque avec plus d’efficacité et sans risque d’être identifiés, n’hésitent pas à prendre le contrôle, via des malwares, d’ordinateurs appartenant à des tiers (souvent d’autres entreprises).
Dans cette hypothèse, il y a deux victimes : l’entreprise cible, dont les ressources informatiques sont momentanément hors-jeu, et l’entreprise « agresseur involontaire » qui voit également la disponibilité de ses machines mise à mal et qui, au surplus, devra démontrer sa bonne foi en cas de poursuites judiciaires.
L’extorsion
Le principe est le suivant : au lieu de voler des données pour les exploiter ou les vendre, le cyberdélinquant contacte sa victime pour la contraindre à lui verser de l’argent soit en la menaçant d’une attaque informatique si elle ne s’exécute pas, soit en lui demandant le versement d’une rançon après avoir pris les données présentes sur l’ordinateur en otage en les cryptant (via un rançongiciel).
Et ce risque d’être victime d’un rançongiciel est loin d’être théorique si l’on en croit la . Ainsi, entre le 1eret le 3e trimestre 2016, il a été constaté que le nombre d’attaques de ce type dont les entreprises, au niveau mondial, ont été victimes a triplé. Dès lors, leur fréquence est passée en quelques mois d’une attaque toutes les 2 minutes à une attaque toutes les 40 secondes.
Les bonnes pratiques à adopter
Outre mettre en place des solutions logicielles antimalwares, il faut faire en sorte que la sécurité devienne la préoccupation de tous les collaborateurs de l’entreprise et plus seulement du service informatique.
Les conseils de l’Anssi
Les PME ne sont pas toujours en mesure d’investir des compétences et de l’argent dans la sécurité de leurs solutions informatiques. Fortes de ce constat, la Confédération générale du patronat des petites et moyennes entreprises (CGPME) et l’Agence nationale de la sécurité des systèmes d’information (ANSSI) ont publié un guide permettant aux PME de prévenir à peu de frais les conséquences d’une attaque informatique. Ce guide est mis à disposition gratuitement sur le site de l’ANSSI ( ).
Parmi les « bonnes pratiques » mises en lumière, on peut d’abord citer la création et l’administration d’un mot de passe. Sur ce point, compte tenu du nombre d’intrusions dont les entreprises sont victimes, il convient de rappeler à quel point il est important d’élaborer une véritable politique de gestion des mots de passe. À cette occasion, seront définis les règles de conception des mots de passe (dimension, composition), mais également leur mode de gestion (règles de communication, d’enregistrement dans les navigateurs, périodicité de changement).
Outre la gestion des mots de passe, le guide revient sur la mise en œuvre d’une politique de sauvegarde. Cette dernière, rappelons-le, est la seule parade véritablement efficace en cas de corruption des données par un virus, mais aussi dans l’hypothèse d’une prise d’otage par un rançongiciel. En effet, payer la rançon ne garantit en rien la « libération » des informations.
Le guide aborde également la sécurisation des réseaux Wi-Fi de l’entreprise, les précautions d’usage relatives aux tablettes et aux smartphones ou encore les règles de prudence à respecter lors de l’utilisation d’une messagerie électronique. Outre la mise en œuvre de ces principes, les entreprises sont fortement incitées à renforcer la politique de sécurité de leur équipement, par exemple en confiant à un collaborateur la responsabilité de la sécurité informatique. À charge pour lui de sensibiliser ses collègues (rédaction d’une charte) et de veiller au bon équipement des machines (pare-feu, antivirus…).
Un changement de culture
Souvent les salariés considèrent les mesures de sécurisation des systèmes, au mieux comme des pratiques étranges qui ne les concernent en rien, au pire comme un irritant opérationnel qui vient compliquer leur travail. Cette situation rend délicate la sécurisation d’une entreprise.
Dès lors, avant même la mise en place de solutions techniques, il est nécessaire qu’une prise de conscience s’opère au sein de l’entreprise pour que chacun comprenne que la sécurité est l’affaire de tous. Car en cas d’attaque non parée, c’est l’entreprise qui risque de disparaître. Cette culture de la sécurité doit être portée et encouragée.
Que faire en cas de cyberattaque ?
Le ministère de l’Intérieur préconise une démarche à suivre en cas de cyberattaque.
Sur son site Internet ( ), le ministère de l’Intérieur préconise une démarche à suivre lorsque l’on est victime d’une cyberattaque :- se déconnecter d’Internet ;- faire un balayage de l’ordinateur au moyen du logiciel antivirus pour vérifier s’il est infecté et, le cas échéant, éliminer le virus ;- procéder à une restauration complète de l’ordinateur si besoin ;- faire appel à un expert si le fonctionnement de l’ordinateur est toujours compromis ;- modifier tous les mots de passe ;- procéder ensuite au dépôt de plainte au commissariat ou à la gendarmerie ;- à cette fin, conserver des images en utilisant la fonction « Imprimer écran » ;- lister tous les préjudices subis ;- mais aussi, se munir de tous les éléments qui semblent pertinents : traces informatiques qui font penser à une attaque, fichier encrypté suite au virus, etc.
Un point sur l’iPhone 7
La gamme des iPhone 7 remporte déjà un véritable succès si l’on se fie aux délais de livraison encore imposés par les distributeurs plus de deux mois après son lancement. Une bonne raison de revenir sur les qualités, mais aussi sur les défauts des petits derniers de la firme à la pomme.
Un look d’iPhone 6
Entre l’iPhone 6 et l’iPhone 7, les différences esthétiques sont minimes.
Les iPhone 7 et 7 Plus ont exactement les mêmes dimensions que leurs aînés, les iPhone 6 et 6 Plus, et font, à moins de 10 grammes près, le même poids. Ils sont respectivement équipés d’écrans Retina tactiles de 4,7 et de 5,5 pouces de diagonale. Exception faite d’une plus grande luminosité (+25 %), ces écrans ont les mêmes qualités que ceux qui équipent les iPhone 6. En fait, il n’est pas évident de parvenir à distinguer, d’un seul coup d’œil, un iPhone 7 d’un iPhone 6. Les différences visibles sont minimes. Heureusement, l’offre en termes de couleur est légèrement différente. Les teintes argent, or et or rose sont toujours proposées, contrairement au gris sidéral qui disparaît de l’offre. En revanche, le noir mat revient ainsi que le « noir de jais ».
Attention :
la teinte « noir de jais » est très prisée, c’est la raison pour laquelle jusqu’à six semaines d’attente sont imposées aux clients qui souhaitent acquérir un smartphone de cette couleur. Il faut également savoir que le revêtement utilisé sur ces smartphones est particulièrement sensible aux rayures. L’utilisation d’une coque de protection est même conseillée par Apple aux acheteurs d’iPhone 7 « noir de jais ».
Sous le capot
Plus de puissance et la fin des prises mini-jack.
Une puce baptisée A10 Fusion, censée être deux fois plus rapide que le processeur des iPhone 6, fait son apparition sous le capot des iPhone 7. Elle est accompagnée de 2 Go de mémoire vive. Quant à la mémoire de stockage, selon le modèle choisi, elle peut être de 32, 128 ou 256 Go. Parmi les nouveautés, il faut aussi signaler la disparition de la prise mini-jack 3,5 mm de ces smartphones. Leurs utilisateurs devront donc recourir à la prise maison Lightning pour brancher leurs écouteurs.
À savoir :
un adaptateur mini-jack/Lightning est fourni avec chaque iPhone 7.
Deux appareils photo numériques (APN) sont présents sur les iPhone 7 et 7 Plus. Sur la coque, le capteur est de 12 Mpx et sur la façade avant de 7 Mpx (contre 12 Mpx et 5 Mpx sur les iPhone 6). En outre, on note l’arrivée d’un stabilisateur d’image sur l’iPhone 7 et d’un flash composé de 4 LED. Enfin, il faut également noter que l’iPhone 7 Plus se voit doté d’un APN composé de deux capteurs, ce qui lui permet de disposer d’un zoom optique x 2 qui, combiné avec le zoom numérique, permet d’obtenir un grossissement x 10.
Étanches mais fragiles
S’ils ne résistent pas mieux aux chocs que leurs aînés, contrairement à ces derniers, les iPhone 7 sont étanches.
Ces deux smartphones, et c’est une première chez Apple, sont étanches. Plus précisément, ils sont conformes à la norme IP67, ce qui signifie qu’ils ne laissent pas entrer la poussière et qu’ils résistent à une immersion de 30 minutes dans un mètre d’eau. En revanche, à en croire les tests réalisés par SquareTrade cette immersion, entraîne une dégradation de la qualité des hauts parleurs de l’appareil. Par ailleurs l’assureur américain a aussi procédé des tests de résistance : il en ressort que les iPhone 7 et 7 Plus sont aussi fragiles que leurs aînés. Ainsi, une pression de plus ou moins 80 kilos est suffisante pour tordre un iPhone de la gamme 7 et une simple chute sur un sol dur pour le mettre définitivement hors d’usage.
Côté prix, en fonction de la capacité de mémoire de l’appareil choisi, il faut compter de 769 € à 989 € pour s’offrir un iPhone 7 et de 909 € à 1 129 € pour le 7 Plus.
Passer à la visioconférence
Longtemps réservés aux grandes entreprises et aux administrations richement dotées, les systèmes de conversation « vidéo » et de visioconférence sont désormais accessibles aux particuliers comme aux TPE. Grâce à eux, il est possible d’enrichir par l’image des échanges entre personnes éparpillées aux quatre coins de la France ou du monde. Voici quelques outils simples à utiliser et gratuits.
En face-à-face
Sur Android comme sur iOS, il existe des outils gratuits qui permettent de tenir une conversation vidéo.
Duo (Android, iOS) et FaceTime (iOS) sont les systèmes de conversation vidéo les plus populaires du moment. Ces applications permettent à deux personnes de tenir une discussion en « face-à-face » tout en étant distantes l’une de l’autre. Elles offrent également la possibilité à l’une de filmer un lieu, un objet, un document… pour que l’autre puisse les voir. Un outil très utile pour, par exemple, estimer à distance la valeur d’un bien ou assister un collaborateur lors d’une intervention de réparation réalisée chez un client.
Duo (Android, iOS)
Lancée il y a tout juste quelques semaines en France par Google, cette application est librement téléchargeable sur Google Play, la plate-forme de téléchargement pour les smartphones et tablettes Android et sur iTunes, celle réservée aux iPhone et autres iPad. Le fait qu’elle existe sur ces deux environnements offre la possibilité à un utilisateur de smartphone Android d’avoir une conversation vidéo avec un utilisateur d’iPhone.
Duo a été pensé pour être simple. D’abord, contrairement aux autres produits de la marque, il ne nécessite pas la création d’un compte pour être utilisable. La communication d’un simple numéro de téléphone suffit. Ensuite, seul un « clic » sur la photo d’un contact est nécessaire pour lancer une conversation vidéo.
En outre, afin d’assurer la fluidité des échanges, l’application est censée, selon ses concepteurs, être capable de basculer d’un réseau Wi-Fi à un réseau téléphonique et inversement sans créer de rupture. Le géant américain précise également que son application est programmée pour réduire automatiquement et sans trop dégrader l’image la résolution de la vidéo lorsque la bande passante est limitée.
À noter :
Duo dispose d’un système de chiffrement de bout en bout des conversations.
FaceTime (iOS)
FaceTime est une application de visioconversation lancée par Apple en 2011. Comme Duo, elle ne permet pas de réunir plus de deux personnes à la fois. Cette application est préinstallée sur les iPhone, mais également sur les iPad et les ordinateurs tournant sur Mac OS. Cette application est incompatible avec Android.
L’application fonctionne aussi bien en utilisant le réseau Wi-Fi que le réseau téléphonique cellulaire. Son utilisation est simple et intuitive.
Organiser des réunions
Des solutions gratuites de visioconférences permettant de réunir plus de deux personnes sont également disponibles.
En plus des appels vidéo en « face-à-face », certains outils comme Google Hangouts (iOS, Android, solution utilisable directement sur Internet via Gmail ou Google+) ou encore Skype (Windows, Mac OS, iOS, Android, solution utilisable directement sur Internet) permettent la tenue de véritables visioconférences. Il est ainsi envisageable de réunir virtuellement jusqu’à une dizaine de personnes dans le cadre d’un séminaire, d’une séance de formation ou d’une simple réunion de travail. Les participants ont ici la possibilité de converser entre eux (les personnes présentes à la réunion apparaissent à l’écran dans de petites vignettes).
Par ailleurs, chacun d’eux dispose, en fonction du logiciel utilisé, de la faculté :- d’intervenir en déposant un commentaire écrit via une messagerie instantanée ;- de partager un document (image, slide, fichier texte, feuille de calcul…) en effectuant un simple glisser-déposer ;- de permettre à un interlocuteur distant de visualiser ce qui s’affiche sur son écran (fonction dite de partage d’écran).
Précisions :
il n’est pas toujours évident de rester naturel devant une caméra. Aussi, les personnes qui ne souhaitent pas être filmées peuvent couper la caméra à tout moment tout en continuant à participer à la réunion.
À savoir :
Skype offre également la possibilité d’organiser des conférences audio réunissant jusqu’à 25 participants.
Une bonne connexion
Pour que ces systèmes de visioconférence soient efficaces, il faut évidemment les utiliser sur un réseau offrant un débit élevé.
Sans surprise, même si ces systèmes de visioconversation sont étudiés pour consommer le moins possible de bande passante, ils n’offrent un réel confort d’utilisation que lorsqu’ils sont associés à un réseau garantissant un débit élevé. Les utilisateurs de smartphones et autres tablettes ont donc tout intérêt à préférer une connexion en Wi-Fi à un accès téléphonique classique (réseau 3G, par exemple). En outre, cette option leur évite également d’encourir une surfacturation s’ils disposent d’un abonnement téléphonique limitant chaque mois, par exemple, le volume de données échangeables.
Quant aux systèmes de visioconférence, ils n’offriront une réelle fluidité que s’ils s’appuient sur une connexion Wi-Fi ou filaire. En outre, même si, sur le papier, ils offrent la possibilité de réunir une dizaine de personnes, il est conseillé de ne pas aller au-delà de 5 participants pour éviter de trop encombrer la bande passante.
Comment réagir face à un bad buzz ?
Être victime d’une campagne de critiques sur Internet n’est pas réservé aux multinationales. Aujourd’hui, même les TPE peuvent se voir infliger une séance de « bashing » à cause d’une simple photo mise en ligne par l’entreprise ou prise par un internaute, d’un propos mal formulé ou mal interprété par la communauté Internet ou encore d’un slogan publicitaire maladroit. Aussi, voici quelques petits conseils de gestion de crise.
Ne rien cacher, c’est trop tard
Une fois le bad buzz lancé, tenter de faire disparaître les propos incriminés n’est pas la meilleure des stratégies.
Personne n’est à l’abri de commettre un impair, notamment sur les réseaux sociaux, où les règles premières sont la rapidité et la réactivité. Ainsi, un commentaire sur Facebook ou Twitter posté trop vite, sans une relecture attentive, peut se transformer en propos ridicule ou en remarque politiquement incorrecte, sexiste ou raciste et provoquer des réactions indignées.
Exemples de tweets ayant entraîné un bad buzz :
- en 2015, une actrice de films pornographiques interpelle une compagnie aérienne sur Twitter :• « Est-il possible d’avoir des informations sur le vol T... supprimé 4 fois depuis ce matin ? » ;• La réponse ducommunity managerde la compagnie est la suivante :« Le vol est prévu pour 14 h 30. C’est juste qu’avec vous on préfère quand ça dure ;). Bonne journée, je reste disponible. :) ». L’actrice et de nombreux abonnés de Twitter adresseront des messages très critiques à la compagnie.
- en 2016, un organisme public chargé de lutter contre le djihadisme publie le tweet suivant :• « #Témoignage : Arrivée à Raqqa, aussitôt veuve, enceinte, elle cherche depuis à se faire sauter ». Le double sens de ce tweet n’échappera pas aux internautes qui le relaieront pour s’en moquer.
Pour enrayer le bad buzz qui enfle, une des premières idées qui vient à l’esprit est de faire disparaître le message à l’origine du problème. Dans un premier temps, cette stratégie est à proscrire ! D’abord, la suppression n’est pas toujours possible. Ensuite, si elle l’est, loin de calmer le jeu, cette action risque d’attiser la frustration des internautes qui, par tous les moyens, tenteront de la retrouver pour la relayer le plus largement possible. Dans cette dernière hypothèse, l’entreprise sera non seulement considérée comme responsable de la diffusion d’un message critiquable, mais en plus elle sera dénigrée pour avoir tenté de le cacher.
Eviter la langue de bois
Même face à des critiques violentes et injustes, il faut garder son sang-froid et faire profil bas.
Lorsque l’entreprise a commis une faute :- un client a découvert une tête de poulet frit dans seschicken wings ;- des salariés d’un SAV d’une entreprise de téléphonie se filment en train de détruire le smartphone d’un de leurs clients qu’ils trouvent antipathique.
ou une maladresse :- la chemise rayée avec une étoile de shérif de la dernière collection ressemble beaucoup à une tenue de déporté ;- par voie d’affiche, un commerçant invite ses clients à ne pas donner aux SDF qui stationnent régulièrement devant son magasin afin qu’ils aillent ailleurs ;- un opticien illustre une campagne de promotion sur Facebook (pour ajuster des lunettes) en diffusant une photo du cardinal Barbarin en pleine réflexion accompagnée de la légende suivante : « Ils n’avaient rien vu ».
Et si cette faute ou cette maladresse génère un déferlement de critiques sur Internet, l’entreprise doit, non seulement, l’assumer mais aussi le faire savoir (si possible en utilisant les canaux de diffusion sur lesquels elle est critiquée). L’exercice n’est pas agréable, mais il est très efficace pour désamorcer la situation.
Il est ainsi conseillé de : - reconnaître les faits (sans les minimiser, au risque de créer un nouveau bad buzz) ;- rappeler que l’on a compris pourquoi cette information ou ce comportement avait pu choquer, décevoir ou contrarier les internautes (clients ou non) ;- présenter des excuses publiques si cela est nécessaire ;- supprimer le message incriminé lorsque c’est possible.
Il est, en revanche, déconseillé de : - supprimer le message et de garder le silence en espérant que le bashing prendra fin de lui-même ;- se justifier et de refuser toute critique (même si l’on a raison sur le fond) ;- répondre aux messages agressifs en étant soi-même agressif ;- faire appel à la justice en pensant que cela va intimider les internautes.
À savoir :
en 2014, la gérante d’un restaurant de Lège-Cap-Ferret n’avait pas apprécié la critique publiée par une blogueuse. Elle a porté plainte et obtenu la condamnation de cette dernière devant les tribunaux pour dénigrement. La blogueuse a dû payer 2 500 € de dommages et intérêts et de frais de procédure. Une condamnation qui a conduit à un déferlement de critiques sur Internet (Google, TripAdvisor, réseaux sociaux…) à l’encontre du restaurant et de ses dirigeants pendant des mois. Les grands médias français se sont même emparés de l’affaire (Sud Ouest, Arrêt sur images, L’Express…). Une pratique à éviter sauf si l’on souhaite se faire de la mauvaise publicité !
Oser la transparence et l’humour
Jouer la sincérité avec les internautes est une approche souvent efficace en matière de gestion de crise.
Se flageller et s’excuser publiquement n’est pas toujours suffisant pour calmer le jeu et transformer la critique en publicité positive. Il faut également accepter de faire toute la lumière sur la situation. Ainsi, en 2015, un célèbre fabricant de cannelés a été victime d’un rongeur très photogénique (la photo diffusée montrait une souris en train de dévorer un cannelé dans une vitrine. Une photo mise en ligne par un internaute).
En réaction, le fabricant a décidé de poster la photo en question sur Facebook, accompagnée du message suivant :- « Avis à vous tous : les souris aiment les cannelés ! »
En plus de cette note humoristique, il a rendu publiques toutes ses mesures d’hygiène (nature, fréquence…) et a tenu à préciser que les cannelés exposés dans ses vitrines n’étaient pas destinés à la vente, afin de rassurer ses clients.
Dans un autre post également publié sur Facebook, l’enseigne présentera une poupée de chiffon en forme de souris et annoncera qu’il s’agit de la nouvelle mascotte de la marque. Ce dernier message sera largement salué par les internautes.
Prendre en compte les remarques
Signifier aux internautes que leurs remarques ont été entendues et prises en compte est aussi très important pour retrouver le calme. L’entreprise pourra ainsi annoncer une action ou une série d’actions (renforcement des contrôles, retrait d’un produit, réaffirmation des valeurs éthiques de l’entreprise, mise en place de formations en interne, recrutement d’uncommunity manager...) qui auront pour objectif de faire en sorte que le problème rencontré et rendu public ne se reproduise plus ou ait moins de risque de se reproduire.
Le Bon Coin : l’inattendu poids lourd du recrutement en ligne
Chacun le sait, Le Bon Coin est le premier site Internet français de petites annonces gratuites. Il y a tout juste quelques jours, on pouvait encore y découvrir plus de 800 000 voitures à vendre et 1 000 000 de maisons et d’appartements. Ce que l’on sait moins, en revanche, (du moins ce que nombre d’entre nous ignoraient avant le lancement de la dernière campagne de publicité du Bon Coin), c’est que plus de 300 000 offres d’emploi y sont également proposées. Une bonne occasion de se pencher sur le fonctionnement de ce site et sur les raisons de son succès sur le marché du recrutement en ligne.
Difficile de faire plus simple
Quelques minutes suffisent pour s’inscrire sur le site et y déposer une annonce.
Déposer une annonce sur Le Bon Coin pour y dénicher un nouveau collaborateur est aussi simple que de déposer une annonce pour vendre une table. Une fois l’inscription réalisée (l’inscription dans le cadre d’un « Compte Pro » est obligatoire pour les entreprises), il suffit de choisir la catégorie « Offres d’emploi », de remplir les champs de son choix (type de contrat, localisation géographique du poste, secteur d’activité, niveau d’études, expérience requise, temps plein ou temps partiel, niveau de rémunération…), de donner un intitulé à l’annonce et de rédiger un descriptif. Des images peuvent également venir illustrer l’offre.
Généralement, il faut entre 24 et 48 heures (période pendant laquelle l’annonce est validée par les services du site) avant que l’annonce ne soit mise en ligne. Sauf si elle est supprimée par son émetteur, l’annonce reste en ligne pendant une période de 2 mois.
D’un point de vue financier, il faut savoir que l’ouverture d’un Compte Pro et la mise en ligne d’une offre d’emploi sont gratuites.
En revanche, les options permettant à l’offre de bénéficier d’une meilleure visibilité sont payantes. Par exemple, pour qu’une annonce soit immédiatement proposée en tête de liste, il faut débourser un peu plus de 3 € HT ou 92 € pour l’y maintenir pendant 30 jours. Par ailleurs intégrer le logo « Urgent » à l’annonce est facturé 5 € et la modifier, un peu plus de 4 €.
À noter :
les entreprises bénéficient d’un tableau de bord qui leur permet de visualiser l’ensemble des annonces en cours de publication sur le site et d’un outil statistique. Via ce dernier, il leur est possible de savoir combien de fois chacune de leurs annonces a été consultée ou encore le nombre de messages qu’elle a générés. En outre, la couleur dans laquelle s’affiche le nombre de consultations de l’annonce (rouge ou vert) indique si cette dernière a plus ou moins de succès que les autres annonces diffusées par d’autres recruteurs sur le même secteur géographique.
Un site prisé par les TPE
Les petites entreprises sont de plus en plus nombreuses à rechercher de nouveaux collaborateurs sur Le Bon Coin.
La gratuité n’est pas étrangère au succès que Le Bon Coin rencontre auprès des petites entreprises qui souhaitent recruter. Mais ce n’est pas la seule raison. D’abord, l’approche locale, qui constitue l’ADN du site, rassure les TPE. Ces dernières sont ainsi certaines que leur annonce sera avant tout consultée par des visiteurs qui, comme toujours sur Le Bon Coin, utilisent comme premier critère de tri la localisation géographique, simplement parce qu’elle correspond, le plus souvent, à leur lieu de vie. Un critère géographique qui, depuis quelques mois, a encore été renforcé par le déploiement d’une fonction de géolocalisation permettant aux candidats de trier les offres d’emploi dans un rayon de 10 à 200 km autour d’eux.
Ensuite, contrairement aux sites spécifiques, aucun médiateur n’effectue de tri des candidatures. Et loin d’effrayer les entreprises, cela leur offre la possibilité de réajuster leurs critères de sélection en fonction des CV qu’elles reçoivent.
À noter :
aucune aide à la rédaction d’offres d’emploi n’est, pour le moment, proposée par Le Bon Coin, contrairement à ce qui existe sur des sites privés dédiés au recrutement ou sur les sites de Pôle emploi et de l’Apec.
Enfin, avec plus de 23 millions de visiteurs uniques mensuels (vendeurs, acheteurs, demandeurs d’emploi, salariés en poste), Le Bon Coin donne aux recruteurs la possibilité de dénicher un nouveau collaborateur bien au-delà du public traditionnellement présent sur les sites uniquement dédiés au recrutement.
Bientôt une offre pour les grands groupes
Pour séduire les grandes entreprises, Le Bon Coin proposera bientôt de nouveaux services.
Le succès du site Le Bon Coin en matière de recrutement devrait le conduire à modifier son offre d’ici à la fin de l’année 2016. À en croire son directeur général, le modèle économique autour des offres d’emploi va être repensé. Des solutions d’import automatique d’annonces ainsi que des abonnements premium pourraient être proposés pour inciter les grandes entreprises à être plus présentes sur le site. De leur côté, les TPE devraient, dans une certaine limite, continuer à bénéficier d’un système d’annonces gratuites.
Protéger les données de son smartphone
Selon le dernier « baromètre numérique » publié par le gouvernement, 58 % des Français sont équipés d’un smartphone et 35 % d’une tablette tactile. Des outils bourrés de fonctionnalités que leurs propriétaires utilisent indistinctement dans le cadre privé et professionnel. Rappel des points de vigilance, mis en avant par l’Agence nationale de la sécurité des systèmes d’information (Anssi), pour limiter les risques de détournement et de perte des données abritées ou transitant par ces appareils.
Un bon mot de passe
Pour protéger les données d’un smartphone, il est important d’activer la fonction de demande de mot de passe.
Perdre, se faire dérober, voire prêter un smartphone expose les données qu’il contient. Pour limiter ce risque, un des premiers conseils dispensé par l’Anssi est de mettre en place un mot de passe sans lequel l’utilisation du smartphone et donc l’accès aux informations qu’il contient est impossible. Pour activer une demande de mot de passe, il faut utiliser les fonctions « Paramètres/sécurité/verrouillage » de l’écran sur les appareils tournant sous Android et les fonctions « Réglages/Codes » pour ceux utilisant iOS.
Attention :
le mot de passe dont il est question ici ne doit pas être confondu avec le célèbre « code Pin ». Ce dernier, composé de 4 chiffres, n’a pour seule fonction que de bloquer la « mise en route » de la carte téléphone et de l’abonnement qui y est associé et de protéger l’accès aux quelques numéros de téléphone que son faible espace mémoire permet de stocker.
Le mot de passe permettant la mise en route du smartphone ou de la tablette doit être d’autant plus compliqué que les informations sont sensibles. En fonction des smartphones et de leur système d’exploitation, plusieurs systèmes sont proposés. Le mot de passe peut être composé d’une simple série de chiffres, d’une combinaison de signes (lettres, chiffres, caractères spéciaux…) ou encore d’un « schéma ». Dans ce dernier cas, l’utilisateur va, en faisant glisser son doigt sur l’écran, dessiner une forme géométrique en reliant des points. D’autres systèmes comme la reconnaissance faciale ou d’empreinte digitale existent également. Toutefois, leur fonctionnement étant encore un peu capricieux, leur utilisation n’est pas conseillée.
À savoir :
lorsqu’un mot de passe incorrect est saisi 6 fois de suite sur un appareil utilisant iOS (iPhone, iPad, iPod…), l’appareil est désactivé. L’entrée de 10 codes erronés consécutifs, entraîne quant à elle, si l’option « d’effacement des données » est activité, la suppression pure et simple des informations stockées dans la mémoire de l’appareil.
Enfin, le mot de passe doit être changé régulièrement (au moins une fois par an) et être systématiquement exigé après seulement quelques minutes de non-utilisation de l’appareil.
Sécuriser les accès et les applications
Les applications comme les accès Wi-Fi et Bluetooth doivent être mis sous contrôle afin d’éviter les intrusions.
Sécuriser les applications
Il existe des milliers d’applications proposées sur les plates-formes de téléchargement (App Store, Play…). Gratuites ou payantes, elles réclament, le plus souvent lors de leur installation, des « permissions » pour accéder à des données présentes sur la tablette ou le smartphone (fichiers, photos, courriels…) ou à des services (GPS, Wi-Fi, appareil photo…). Lorsque ces permissions n’ont aucun rapport avec le fonctionnement des applications (un outil de prise de notes ou une calculatrice qui « souhaite » utiliser le GPS, par exemple), il faut renoncer à les installer, voire, les désinstaller si elles sont déjà présentes sur le bureau du smartphone ou de la tablette.
La liste des autorisations est présente sur la fiche décrivant chaque application sur les plates-formes de téléchargement (App Store, Play…). Il est donc possible d’en prendre connaissance avant de les télécharger.
À savoir :
certaines applications peuvent avoir besoin de nouvelles autorisations au fil du temps. Ces dernières seront proposées à l’utilisateur à l’occasion d’une mise à jour de l’application. Même si la fonction de mises à jour automatique est activée, l’accord de l’utilisateur sera nécessaire pour permettre son installation si elle contient une nouvelle « autorisation ».
Il est également possible de consulter la liste des autorisations associée à chacune des applications déjà installées sur le smartphone ou la tablette et quelquefois de les désactiver. Sur iOS, il faut aller dans « Réglages/applications » et sur Android dans « Paramètres/applications » pour accéder à ces informations. S’il est impossible de désactiver les autorisations non justifiées, il est conseillé de désactiver l’application.
Par ailleurs, l’Anssi invite à effectuer une recherche Internet avant d’installer une application pour s’assurer qu’elle n’a pas une mauvaise réputation en termes de sécurité.
Sécuriser les accès
La plupart des smartphones disposent d’antennes Wi-Fi et Bluetooth ainsi que d’un système de paiement sans contact (NFC). Autant de portes d’entrée pour les intrus et autres hackers que l’Anssi invite à désactiver lorsqu’elles ne sont pas utilisées (en outre, cela permet d’économiser la batterie de l’appareil). Il est également fortement conseillé de désactiver le système de connexion automatique au réseau Wi-Fi le plus proche et le plus puissant afin d’éviter l’utilisation de réseaux inconnus et potentiellement non sécurisés.
À savoir :
pour permettre les corrections des failles de sécurité, la mise à jour automatique du système d’exploitation ainsi que des principales applications (navigateur, gestionnaire de courriels…) doit être activée.
Page pro sur Facebook : par où commencer ?
À en croire les derniers chiffres publiés, plus de 1,4 milliard de personnes disposent d’un compte sur Facebook, dont 24 millions en France. Un vaste public avec lequel de plus en plus d’entreprises souhaitent entrer en contact pour recruter, trouver des clients, mettre en avant des produits ou encore travailler leur image. Retour sur le b.a.-ba de la création d’une page « entreprise » sur Facebook.
Les premières démarches
Il faut à peine quelques minutes pour créer une page et la renseigner.
Pour concevoir une page entreprise, il faut d’abord créer ou disposer d’un compte Facebook ouvert au nom d’une personne physique. Et attention, il est conseillé de résister à la tentation de créer pour l’occasion un compte au nom d’une personne fictive. Sans quoi, Facebook sera en droit, si ses services le constatent, de supprimer le compte et, par voie de conséquence, la ou les pages « entreprises » qui s’y trouvent attachées.
À noter :
la création et l’utilisation d’une page entreprise sur Facebook sont gratuites. En outre, plusieurs pages peuvent être créées à partir d’un même compte.
Via la page d’accueil de ce compte, il convient maintenant de cliquer sur « Créer une page » dans le menu déroulant de la barre des tâches et de choisir le type de page le plus adapté à l’objectif poursuivi. Six types de pages sont proposés. Les quatre premiers intéressent les entreprises. Les deux derniers visent plutôt le monde associatif et les particuliers :- lieu ou commerce local ;- entreprise, organisme ou institution ;- marque ou produit ;- artiste, groupe ou personnalité publique ;- divertissement ;- cause ou communauté.
Une fois le type de page retenu, un menu déroulant est proposé, grâce auquel il est possible de sélectionner l’activité du commerce ou de l’entreprise ou la nature des produits ou des services présentés. Un seul choix est possible.
Enfin, une photo de profil (logo de l’entreprise, image du produit ou de la devanture du magasin) est demandée ainsi qu’un texte descriptif de quelques lignes et, bien entendu, le nom du magasin, de l’entreprise, de la marque ou du produit.
En outre, lors de cette procédure de création, il est également demandé de choisir une adresse Internet Facebook. Cette dernière pourra être diffusée sous la forme d’un lien dans les pages du site Web de l’entreprise, par exemple, ou en pied de courriel. Ceux qui cliqueront dessus accéderont directement à la page entreprise. Cette adresse est construite de la manière suivante : www.facebook.com/nom-choisi.
Attention :
tant que la page rassemble moins de 200 fans, il est possible de changer son nom. Il suffit pour cela d’aller dans le menu « À propos ». Au-delà, le changement de nom ne peut être fait que par les services de Facebook sur demande de l’administrateur de la page.
La prise en main
De nombreuses fonctions permettent de personnaliser le fonctionnement de la page « pro » de Facebook.
La page étant créée, il reste à en compléter le descriptif en cliquant sur « À propos » (adresse, téléphone, site Web, courriel…) et à en spécifier les paramètres.
Ces derniers sont très souvent laissés de côté par les créateurs de pages alors qu’ils offrent des possibilités nombreuses et pertinentes. Il est notamment possible :- de définir la visibilité de la page (publiée ou non publiée). Tant que la page n’est pas totalement construite, il est conseillé de la maintenir au statut « non publiée » ;- de définir les droits de publication des visiteurs (interdiction, autorisation, modération de leurs commentaires) ;- d’autoriser les gestionnaires de la page à mettre en ligne des publications temporaires (elles disparaissent de la page à une heure définie par le gestionnaire qui les met en ligne) ;- d’interdire la publication de la page à des utilisateurs de certains pays ou au contraire de leur réserver ;- d’autoriser les gestionnaires de la page à utiliser plusieurs langues (dans cette hypothèse, les visiteurs n’accèdent qu’aux contenus écrits dans leur langue) ;- de restreindre l’accès de la page en fonction de l’âge des visiteurs ;- d’autoriser ou de supprimer la possibilité d’être contacté par message privé ;- de modifier le classement des commentaires (date ou pertinence) ;- d’activer un filtre à injures ;- d’établir une liste de mots interdits d’affichage sur la page ;- de recevoir une notification signalant un événement intervenu sur la page (mention de la page, nouveau commentaire, nouvel abonné, nouveau « J’aime »…) ;- d’afficher un temps de réponse aux questions posées par les visiteurs de votre page (attention à bien respecter cet engagement) ;- de programmer un système de réponse instantanée automatique.
Une fois tous les paramétrages établis et les différents textes et visuels mis en place, il ne reste plus qu’à publier la page et à la faire connaître.
De l’administrateur à l’analyste
Plusieurs fonctions peuvent être attribuées aux gestionnaires d’une page « pro » de Facebook.
Le menu « Paramètres » permet en outre (rubrique « Rôles de la page ») d’identifier les personnes en charge de la gestion de la page et de définir leur fonction et leur degré d’habilitation. Cinq rôles de « gestionnaires » sont attribuables :
Les rôles des gestionnaires
| Administrateur | Editeur | Modérateur | Annonceur | Analyste | |
| Gestion des rôles et des paramètres de page | X | ||||
| Modification de la page et ajout des applications | X | X | |||
| Création et suppression des publications au nom de la page | X | X | |||
| Envoi de messages au nom de la page | X | X | X | ||
| Répondre aux commentaires et aux publications sur la page et les supprimer | X | X | X | ||
| Suppression et exclusion des utilisateurs de la page | X | X | X | ||
| Création de publicités | X | X | X | X | |
| Consultation des statistiques | X | X | X | X | X |
| Voir qui a publié du contenu au nom de la page | X | X | X | X | X |
Plusieurs personnes peuvent intervenir sur la même page en ayant le même rôle ou des rôles différents.
À noter :
l’administrateur dispose du droit de supprimer une page entreprise à tout moment via le menu « Paramètres ».
Et les statistiques ?
À partir du moment où la page compte plus de 30 fans, elle se voit associer un outil de statistique gratuit. Il comptabilise les mentions « J’aime » déposées par les visiteurs et leur évolution dans le temps ainsi que le nombre de personnes ayant vu les posts publiés. Cet outil totalise également le nombre « d’engagements », c’est-à-dire le nombre d’actions suscitées par une publication (clics, partages, commentaires).
Comment rédiger un tweet efficace
À elle seule, la règle des 140 signes maximum caractérise Twitter. Pour autant, être bref n’est pas suffisant pour permettre à un « tweet » d’atteindre un « taux d’engagement » élevé. Autrement dit d’être retweeté, classé comme favori, ou de susciter l’abonnement d’autres utilisateurs du 3e réseau social le plus prisé de France. Zoom sur les qualités principales d’un bon tweet.
Respecter la ligne éditoriale et suivre l’actualité
Pour ne pas déstabiliser ses abonnés, il est préférable de suivre une ligne éditoriale.
Parler de tout et de rien n’est pas une stratégie très efficace pour séduire et fidéliser des abonnés sur Twitter. Il est préférable d’opter pour une ligne éditoriale précise et simple à identifier. Une ligne éditoriale qui doit être définie en fonction :- de l’image que l’entreprise souhaite donner (expertise technique, convivialité, tradition, caractère innovant, comportement éthique…) ;- des objectifs qu’elle poursuit en communiquant sur Twitter (recherche de collaborateurs, recherche de partenaires, conquête et fidélisation de clients…).
Tous les tweets produits, retweetés ou distingués (via un « J’aime ») devront l’être dans le respect de cette ligne éditoriale.
Suivre l’actualité
Twitter est le réseau de l’immédiateté. L’actualité y est très suivie et commentée.
Twitter est un outil très utilisé pour suivre l’actualité, tous domaines confondus. Produire des tweets qui feront partie des premiers à relayer une information est une bonne stratégie pour faire en sorte qu’ils soient lus et retweetés. Toutefois, pour y parvenir, il faut :- qu’une veille soit effectuée par une personne dans l’entreprise sur les domaines entrant dans sa ligne éditoriale ;- que cette personne soit suffisamment autonome pour, sans délai, rédiger un tweet et le mettre en ligne.
Les créneaux de publication
Connaître les créneaux de présence sur Twitter est important pour définir une politique de publication.
D’une manière générale, pour accroître le taux d’engagement d’un tweet, il est conseillé de le mettre en ligne pendant les pics de fréquentation. Une des dernières études publiées sur le sujet (Quick Sprout – 2015) montre que :- lorsque l’on vise un lectorat de professionnels, il faut préférer les jours de la semaine. Le taux d’engagement étant de 14 % supérieur à celui constaté les samedi et dimanche ;- lorsque l’on cible un public de particuliers, le taux d’engagement est 17 % plus élevé les mercredi, samedi et dimanche.
Concernant les horaires, le créneau de base s’étale de 10 heures à 17 heures. L’étude précise d’ailleurs que le taux d’ouverture et de traitement des tweets est particulièrement élevé lors de la pause du déjeuner (autour de midi) et en fin d’après-midi (autour de 17 heures).
Précision :
une étude réalisée par Over-Graph précise que la durée de vie moyenne d’un tweet (durée pendant laquelle il va être lu et relayé par les autres utilisateurs du réseau social) n’excède pas 4 heures. Aussi, pour assurer une présence continue sur Tweeter, il est conseillé d’envoyer plusieurs tweets quotidiens, espacés les uns des autres.
Intégrer un hashtag
Les hashtags offrent une meilleure visibilité aux tweets.
Les hashtags sont des marqueurs (notés #nomdumarqueur) que l’on peut créer ou reprendre et qui permettent d’associer un tweet à un thème. Ce marqueur est important car il offre à un tweet la possibilité d’être vu par tous les non-abonnés qui utiliseront ce hashtag comme mot-clé dans une recherche sur le réseau social.
Exemple :
un utilisateur vient de recevoir un tweet contenant le hashtag #courdescomptes. Il lui suffit alors de cliquer sur ce hashtag pour que s’affiche sur son écran d’autres tweets contenant le même marqueur. Cette pratique, qui permet de facilement consulter différents messages portant sur un même sujet, est très répandue sur Twitter.
Il est possible d’intégrer plusieurs hashtags dans un même tweet. Mais attention, au-delà d’un marqueur, les études montrent que le taux d’engagement généré par le tweet s’effondre.
Précision :
dans un cadre baptisé « Tendances », qui apparaît sur la page d’accueil de chaque compte Tweeter, se trouve une liste de hashtags. Cette liste est conçue automatiquement par Twitter en fonction de la localisation de l’abonné mais aussi de ses centres d’intérêt.
Respecter les formes et mentionner les sources
Des règles de forme et de courtoisie doivent être suivies sur Twitter.
Un tweet doit être correctement rédigé (orthographe soignée, ponctuation respectée, utilisation réduite des abréviations) et adopter un ton décontracté sans être incorrect. Il convient aussi d’utiliser les majuscules avec modération. Ces dernières, signifiant « je crie », sont regardées comme une marque d’agressivité.
Il est de tradition de citer ses sources sur Twitter. Pour ce faire, il suffit de faire apparaître l’adresse de leur compte Twitter (@nomducompte) dans le corps du tweet. Les personnes ainsi citées recevront une notification sur leur compte Twitter. Par reconnaissance ou par simple curiosité, elles ne manqueront pas de venir visiter le compte de la personne qui les a citées.
Intégrer des liens et des images
Les images augmentent l’effet viral des tweets.
Il ne faut pas hésiter à intégrer une image dans un tweet. L’effet viral de celle-ci est largement démontré et augmente considérablement les chances qu’à un tweet d’être retweeté. En outre, il est possible et conseillé d’intégrer aussi des liens. Ces derniers vont permettre aux lecteurs du tweet d’accéder à des données plus riches (pages Web, blogs, vidéos en ligne…). Pour faire « entrer » les adresses des pages Web dans les 140 signes maximum du tweet, il faut utiliser un « réducteur d’URL », un service gratuit disponible en ligne (urlz.fr, ecra.se, url.exen.fr…).
Instagram : communiquer avec des images
Avec ses 400 millions d’utilisateurs qui s’échangent 70 millions de photos par jour, Instagram est un outil de marketing puissant au service de toutes les entreprises.
Un réseau très actif
Les utilisateurs d’Instagram sont très présents sur le réseau et très réactifs.
Instagram est une application de retouche et de partage d’images (images fixes et vidéos). Elle fonctionne sur les smartphones et les tablettes tournant sous les systèmes d’exploitation Android et iOS (iPhone, iPad…). Une version Internet d’Instagram est également en ligne, permettant son utilisation via un ordinateur classique. Contrairement à d’autres réseaux sociaux, Instagram réunit des mobinautes très actifs. Pour preuve : 2,5 milliards de « J’aime » sont attribués chaque jour aux images mises en ligne. Ce qui signifie qu’en moyenne, chaque utilisateur en distribue plus de 6 par jour.
La viralité des images
« Mieux vaut une image qu’un long discours » pourrait être la devise d’Instagram. Une devise qui séduit de plus en plus d’entreprises conscientes qu’une image est presque deux fois plus relayée sur les réseaux sociaux qu’un simple texte. Les spécialistes parlent de la viralité des images. Inutile ici de décrire un produit, un local ou encore une personne, il suffit de le photographier, de le filmer ou de le dessiner.
Grâce à l’image, les entreprises peuvent, par exemple :- inviter leurs clients et prospects à découvrir les étapes de leur processus de fabrication ;- présenter leurs produits et montrer comment les utiliser ;- permettre à leurs clients et prospects de faire connaissance avec leurs équipes, de les découvrir et ainsi de créer un véritable affect ;- raconter leur histoire en publiant des photos illustrant les principaux événements qui ont marqué leur évolution au cours du temps ;- impliquer les mobinautes dans leur politique marketing en les incitant, par exemple, à se prononcer sur le design d’un prototype ou d’un emballage ;- transformer les utilisateurs qui les suivent sur Instagram en véritables ambassadeurs en les incitant à prendre et à diffuser eux-mêmes des photos dans lesquelles apparaîtront leurs produits, leurs logos ou leurs magasins.
Ajouter des textes
Les images diffusées sur Instagram peuvent être accompagnées de brèves légendes. Il est conseillé de les intégrer, car elles permettent de clarifier et de contextualiser l’image et de faciliter sa recherche. Cette légende peut également être complétée d’un ou de plusieurs hashtags. Ces marqueurs identifiés grâce au signe # qui les précède (#nom du marqueur) vont améliorer la visibilité de l’image ou de la vidéo en l’intégrant à un flux d’informations en rapport avec l’actualité (#jesuisparis, #cop21…) ou portant sur un sujet « froid » (#ligue1, #vehiculesdechantier…). Ces marqueurs peuvent être créés ou repris.
Et attention, ce système de taggage est d’autant plus pertinent qu’il est possible d’automatiser la publication des images parues sur Instagram sur d’autres réseaux sociaux utilisant ce type de marqueurs (Facebook, Twitter, Tumblr...).
Un véritable réseau social
Créer un compte Instagram ne suffit pas. Il faut également mobiliser des moyens pour l’animer.
Comme avec Facebook ou encore Twitter, les utilisateurs d’Instagram peuvent recevoir le flux de publications mis en ligne par d’autres utilisateurs en s’abonnant à leur compte. Chacun dispose également de la possibilité d’attribuer un « J’aime » à une image et de la partager avec les abonnés de son propre réseau. Sans surprise, pour constituer et renforcer son réseau, il faut régulièrement publier des images et des vidéos mais aussi interagir avec les autres utilisateurs d’Instagram en visitant leur compte, en attribuant des « J’aime » ou encore en rediffusant leur flux lorsqu’il est de nature à porter l’image ou la philosophie de l’entreprise.
Par ailleurs, pour faire connaître le compte Instagram de l’entreprise, il est conseillé d’ajouter son adresse dans la signature des courriels de tous les collaborateurs mais aussi de créer un « badge » et de l’intégrer sur les pages du site et du blog de l’entreprise. Les personnes qui cliqueront dessus seront ainsi immédiatement connectées au compte.
Un réseau social utilisé par les moins de 30 ans
Selon les données communiquées par Instagram, l’utilisateur type vit hors des États-Unis (70 %), est âgé de 18 à 29 ans (53 %), et a décroché au moins un diplôme de l’enseignement secondaire (24 %). En revanche, on ignore quel est son sexe (49 % n’ont pas renseigné cette rubrique) et s’il vit en ville ou à la campagne (rubrique non renseignée dans 53 % des cas).
Edge : le nouveau navigateur de Microsoft
Lancé en juillet dernier en même temps que le système d’exploitation Windows 10 auquel il est attaché, Edge peine à convaincre. À en croire une étude réalisée par Quantcast, 88 % des utilisateurs ayant migré sur Windows 10 ont préféré basculer sur Chrome ou Firefox plutôt que de laisser une chance au nouveau navigateur de Microsoft. Un « butineur » qui, pourtant, est considéré comme un des plus performants du moment par la presse technique. Qualités et défauts du dernier navigateur de la firme de Satya Nadella.
Souvent le plus rapide
Les différents tests réalisés par la presse technique lors de la sortie de Edge montre qu’il fait partie des navigateurs les plus rapides du moment.
Jusqu’à présent Chrome, était considéré comme le plus rapide des navigateurs. Dès sa sortie, Edge a donc été comparé à son illustre concurrent pour savoir s’il pouvait rivaliser, notamment en termes de vitesse de calcul et d’affichage. Et les résultats sont sans appel : sur les trois tests réalisés, Edge est plus véloce que Chrome. Précisément, il surclasse son concurrent de 112 % sur l’outil de mesure « WebKit SunSpider », de 11 % sur « Google Octane » et de 37 % sur « Apple JetStream ». En revanche, pour ce qui concerne la compatibilité avec les standards du Web, Edge est en retard puisqu’il n’obtient que 453 points au test HTML5 contre 467 points pour Firefox, 525 points pour Opera et 526 points pour Chrome.
Quelques fonctions innovantes
Plusieurs fonctionnalités qui n’existaient pas sur Internet Explorer font leur apparition sur Edge, rendant son utilisation plus agréable.
Un mode lecture
Consulter une page Internet n’est pas toujours simple, en raison notamment de la disposition de ses contenus. Pour faciliter cet exercice, Edge est doté d’un mode lecture qu’il est possible d’activer en cliquant sur une icône en forme de livre ouvert présente sur la droite de la barre d’adresse. L’activation de ce mode va faire disparaître de la page Internet en cours de consultation tout ce qui n’est pas à proprement parler du contenu. Ne resteront que les textes, les titres, la date, les images et les liens Internet. Les éventuelles publicités et les cadres du site Internet d’origine (dans lesquels sont présents ses menus de navigation) seront, quant à eux, supprimés.
À noter :
un mode lecture comparable existe déjà sur Safari et Firefox.
Une liste de lecture
La fonction favoris permet, sur Edge, non seulement d’enregistrer l’adresse d’un site mais également une page entière. Cette dernière est alors sauvegardée dans une « liste de lecture », permettant à l’utilisateur de la consulter, à tout moment, sans qu’il ait à se reconnecter sur le site Internet d’où elle est issue.
Un système d’annotations
Edge offre également la possibilité d’annoter des pages Internet en cours de consultation. Via un stylet sur l’écran tactile ou une simple souris, il est possible d’écrire, de dessiner, de mettre des textes en surbrillance, de « découper » une partie de la page pour la faire disparaître ou encore d’insérer une note. Une fois modifiée, la page peut être sauvegardée et partagée via OneNote (le mini éditeur maison) et le gestionnaire de messagerie électronique.
Cortana, l’assistant virtuel
Cortana est un assistant virtuel qu’il est notamment possible de commander à la voix à l’instar de Siri (sur iPhone). Intégré à Windows 10, il fonctionne en sous-couche de Edge avec pour ambition de permettre à ses utilisateurs de lancer une recherche complémentaire à partir d’une page web en cours de consultation. Par exemple, il suffit de sélectionner sur ladite page un mot ou une expression, de cliquer sur le bouton droit de la souris (ou de faire un appui prononcé sur l’expression sélectionnée en cas d’utilisation d’un écran tactile) pour que Cortana ouvre une fenêtre d’information sur la droite de la page. Il pourra y faire apparaître une simple définition du terme choisi, une présentation (pour un pays ou un personnage connu), un itinéraire ou une adresse, ou encore une fiche contact s’il s’agit d’une entreprise ou d’une personne avec laquelle existent déjà des relations. Pour fonctionner, Cortana s’appuie sur Bing, le moteur de recherche de Microsoft. Edge est, aujourd’hui, le seul navigateur à être associé à un assistant virtuel.
Et un gros défaut pas encore corrigé
Une des particularités de Chrome et de Firefox, et sans doute une des raisons de leur succès, est la possibilité d’accueillir des extensions. Autrement dit des petits programmes conçus pour enrichir les fonctionnalités des navigateurs (filtre anti-pub, bloqueur de fenêtre pop-up, outils de traduction, convertisseur, gestionnaire de téléchargement…). Des programmes gratuits disponibles par dizaines de milliers sur des plates-formes de téléchargement dédiées. Or, si avant sa sortie, les développeurs d’Edge avaient laissé entendre qu’il pourrait accueillir des extensions, y compris celles de Firefox et de Chrome, pour le moment il n’en est rien. Et officiellement, les responsables de Microsoft ont fait savoir, à la fin du mois d’octobre, que les utilisateurs de Edge devront attendre une mise à jour prévue pour l’été 2016 avant de pouvoir le personnaliser via des extensions.
Comment bien utiliser les réseaux sociaux
Il y a à peine plus de 10 ans, la simple notion de réseaux sociaux n’agitait que le Landernau des spécialistes du Web. Aujourd’hui, près d’un quart de la population mondiale dispose d’un compte sur Facebook. Un véritable monde parallèle dans lequel chaque entreprise a la possibilité de trouver de nouveaux clients, de nouveaux partenaires ou encore de nouveaux collaborateurs. Présentation des principales règles à respecter dans l’univers des réseaux sociaux.
Un véritable réseau
C’est en s’appuyant sur le réseau de ses contacts que l’on constitue son propre réseau.
Les réseaux sociaux, qu’ils soient destinés au grand public, comme Facebook ou Twitter, ou spécifiquement conçus pour les professionnels, comme Viadeo ou LinkedIn, offrent à leurs utilisateurs la possibilité de nouer des contacts avec d’autres internautes. À cette fin, chacun d’eux dispose d’une fiche de présentation et bénéficie d’un moteur de recherche lui permettant de retrouver puis de consulter celle des autres inscrits.
Mais attention, sur les réseaux sociaux, il n’est en principe pas possible d’entrer directement en contact avec quelqu’un que l’on a repéré en consultant son profil. Cette limite, qui a largement contribué au succès de ces sites, a pour intérêt d’éviter que ce type d’outils ne soit utilisé pour lancer des actions de communication commerciales agressives. Une règle fondatrice qui, en offrant la possibilité à toute personne inscrite de décider qui a le droit de la contacter et de lui communiquer les données qu’elle met en ligne, favorise également la notion d’entremise. Comme dans la « vraie vie », pour nouer un contact avec une personne que l’on ne connaît pas, il est souvent plus simple et plus efficace de se la faire présenter par une relation commune. C’est donc en s’appuyant sur le réseau de ses contacts que l’on va pouvoir constituer et étoffer son propre réseau. Ainsi, bien plus que leur nombre, c’est la qualité de vos contacts qui fait l’intérêt de votre réseau.
Qui parle au nom de l’entreprise ?
Contrairement aux sites Internet traditionnels, qui ont principalement pour vocation de diffuser une information, les réseaux sociaux ont pour objet de susciter une prise de contact, un échange entre personnes inscrites. Pour permettre cette communication, il convient donc de s’identifier en créant son profil. Ce dernier peut être ouvert au nom de l’entreprise, d’une de ses marques, d’un de ses dirigeants ou encore d’un personnage « imaginaire » créé et « animé » en vue de communiquer pour son compte. Ces différentes approches sont possibles et peuvent même coexister. Seule condition : qu’elles répondent à la stratégie de communication définie par l’entreprise.
Animer son réseau
Être simplement présent sur un réseau n’est pas suffisant pour espérer en tirer profit. Il faut être sinon actif, du moins réactif.
Toujours répondre
Les membres de votre réseau bénéficient, en principe, du droit de vous interpeller (par courriel, messagerie instantanée) ou de commenter les informations (textes, images, vidéos, tweets…) que vous mettez en ligne. Au risque de les voir ne plus s’intéresser à vous, il est indispensable qu’une suite soit donnée à leurs demandes d’échange. Ainsi est-il nécessaire d’opérer un suivi régulier des différents comptes ouverts sur les réseaux sociaux. Une contrainte qu’il convient de bien mesurer avant de se lancer dans l’aventure.
Jouer les animateurs
Répondre aux demandes est indispensable, mais pas suffisant pour entretenir ou accroître un réseau. Il est nécessaire que vous assuriez un rôle d’animation en mettant quotidiennement en ligne des informations, en particulier sur Facebook, Google+, Twitter ou encore Instagram, en visitant les profils et les pages des autres membres du réseau afin de mieux les connaître, mais également que vous manifestiez tout l’intérêt que vous leur portez.
En outre, sur LinkedIn ou Viadeo, qui sont des réseaux dédiés aux professionnels, vous pouvez créer, animer ou plus simplement participer à des groupes de travail et d’étude (hub). Et grâce à ces plateformes destinées à réunir des personnes intéressées par les mêmes problématiques (souvent professionnelles ou techniques, mais pas seulement), vous avez la possibilité de faire valoir votre expertise ou celle de vos équipes, et par la même occasion d’identifier des experts dans les domaines de compétences qui vous intéressent. Des experts parmi lesquels vous pourrez peut-être dénicher de nouveaux collaborateurs, de futurs clients ou des partenaires économiques.
Attention au bashing !
Le ton peut vite monter sur les réseaux sociaux. S’il n’existe pas de stratégie idéale pour lutter contre les critiques, quelques règles doivent être respectées. La première : toujours répondre aux critiques. La seconde : utiliser les mêmes médias que ceux qui s’en prennent à l’entreprise (si l’attaque vient de Facebook, il faut répondre sur Facebook). Il convient enfin de ne pas nier l’évidence et d’adopter un ton mesuré pour éviter toute surenchère.
Dites-le avec des images
Les réseaux sociaux de partage d’images sont de plus en plus utilisés par les entreprises.
Généralement, sur les sites Internet, l’image, lorsqu’elle est présente, a pour simple rôle d’illustrer un texte. Ce positionnement, certains réseaux sociaux, dont les plus connus sont Instagram et Pinterest, l’ont totalement inversé. En effet, sur ces plateformes, l’image est reine et donne lieu à des contacts et à des échanges. Une image que les utilisateurs de ces outils partagent après l’avoir mise en ligne ou simplement sélectionnée parmi celles publiées sur le réseau.
Ce mode de communication est très « tendance » (Instagram et Pinterest réunissent, à eux deux, plus de 360 millions d’utilisateurs), notamment parce qu’une image est presque deux fois plus rediffusée qu’un simple texte (les spécialistes parlent de viralité). Une qualité essentielle qui séduit les entreprises.
Certaines viennent y soigner leur image ou créer du lien en diffusant des photos de leurs équipes au travail ou des étapes de production d’un produit. D’autres cherchent à impliquer leurs « fans » dans leur politique marketing en les incitant à se prononcer sur des images de prototypes d’emballages ou à créer eux-mêmes des photos dans lesquelles apparaîtront leurs produits. D’autres enfin utilisent directement ces plateformes pour vendre des repas, des vêtements ou des voyages en diffusant des photos les illustrant. La vente des produits ou services pouvant s’opérer via un lien Internet associé renvoyant l’acheteur sur le site de l’entreprise ou par l’intermédiaire d’un bouton « acheter » permettant la réalisation de la transaction. Un système de vente directe qu’Instagram et Pinterest sont en train de déployer en Europe.




