CRM : La clé de la transformation numérique
Au début des années 2000, les frontières de l’IT étaient claires : l’ERP constituait le socle sur lequel tous les grands processus de l’entreprise devaient être modélisés. Tous les grands déploiements d’ERP ont été conduits sur ce principe. Ces projets ont souvent été menés dans la douleur mais l’approche a permis aux entreprises d’obtenir des gains de productivité significatifs. Néanmoins, la transformation digitale est venue bousculer cet édifice si durement construit. À cette stratégie centrée sur les processus et venue se substituer une approche orientée client et le CRM est passé du statut d’application périphérique vis-à-vis de l’ERP à celui de brique clé pour l’activité de l’entreprise. Le discours de Marc Benioff, CEO de Salesforce, n’est certainement pas étranger à ce mouvement de fond. L’éditeur a su placer son offre CRM en mode SaaS au centre d’un écosystème de solutions unique, écosystème estimé à 1 200 milliards de dollars par IDC sur la période 2019/2024.
Le marché du CRM dépasse celui de l’ERP
Le CRM a clairement ringardisé l’ERP et avec la mise en place de stratégies Customer Centric dans la plupart des entreprises, le rôle du CRM a été largement renforcé au détriment de l’ERP dont la rigidité des processus est désormais considérée comme un frein à l’agilité réclamée par les métiers. Porté par cette dynamique, le marché des solutions et services CRM connaît désormais une progression annuelle supérieure à 15 % par an selon Gartner. Il dépasse 48 milliards de dollars, soit plus d’une douzaine de milliards de dollars de plus que le marché des ERP. L’écoute des clients sur les réseaux sociaux et surtout l’analyse des données collectées par le CRM ont permis aux services marketing/communication et services commerciaux d’être plus réactifs vis-à-vis des attentes des consommateurs. Même du côté de la production, certains industriels ont maintenant basculé dans une planification de la production pilotée par les commandes, c’est-à-dire les clients. Les éditeurs d’ERP intègrent de plus en plus à leurs offres des fonctionnalités tout droit venues du monde du CRM, avec de l’IA pour aider les utilisateurs dans la saisie des données, des interfaces mobiles, de la Data Vizualisation et bien entendu des ERP désormais disponibles sous forme de services SaaS.
A. C.
GREEN IT : Et si vous adoptiez l'éco-conception en 2020
Le numérique, malgré son côté éthéré, est loin d’être intangible et son empreinte écologique fait de plus en plus les gros titres. Selon une étude du site spécialisé GreenIT.fr, le numérique représente aujourd’hui à l’échelle mondiale 4,2 % de la consommation d’énergie primaire, 3,8 % des émissions de gaz à effet de serre et 5,6 % de la consommation électrique. Un chercheur suédois travaillant pour Huawei, Anders Andrae, estime pour sa part que les datacentres vont doubler leur consommation d’électricité au cours de la prochaine décennie, jusqu’à représenter 11 % de l’énergie mondiale.
Bref, l’IT, ça pollue et ce n’est pas un hasard si les géants du secteur multiplient les initiatives vertes. Dernier en date, Microsoft a annoncé le 16 janvier son plan en faveur de l’environnement : être négatif en carbone à l’horizon 2030, soit éliminer plus de carbone qu’il n’en émet, et surtout, d’ici à 2050, supprimer l’ensemble du carbone que l’entreprise a pu émettre depuis 1975. Des objectifs ambitieux, mais il est possible d’agir à plus petite échelle. En février 2019, France Stratégie organisait un séminaire sur l’éco-conception, une notion qui n’est pas toute neuve mais qui revient sur le devant de la scène à mesure que l’opinion publique prend conscience des enjeux écologiques du numérique. Deux normes ISO, la 14092 (Intégration des contraintes environnementales dans la conception de produits et services selon une approche globale et multicritères) et la 14006 (Lignes directrices pour intégrer l’éco-conception) concernent cette démarche que la seconde définit comme « l’intégration des aspects environnementaux dans la conception et le développement de produit avec pour objectif la réduction des impacts environnementaux négatifs tout au long du cycle de vie d’un produit ».
Il n’y a pas d’outils miracle pour développer un service numérique qui se veut respectueux de l’environnement, mais des bonnes pratiques et des réflexions à avoir. L’idée globale est de limiter l’impact environnemental du service ou du produit dans chacune des étapes de son cycle de vie à travers la définition de la fonction du service et le dimensionnement des infrastructures physiques et les couches logicielles sous-jacentes.
G. P.
EDGE & FOG : La périphérie au centre de l'IT
Avec la montée en volume et en puissance des équipements connectés en périphérie de réseau, l’Edge et sa déclinaison Fog computing vont tenir le haut du pavé en 2020. En 2025, on comptera plus de 21 milliards d’objets connectés. Le marché autour de ces équipements est vu comme un futur eldorado avec une estimation à 151 milliards de dollars en 2018. Une croissance de 37 % par rapport à 2017. Pour la plupart de ces équipements, il est nécessaire de traiter les données localement pour des temps de réponses rapides. On imagine mal une voiture connectée envoyer dans le Cloud les données pouvant demander un freinage immédiat face à un danger et attendre que la réponse vienne du centre de données ou du Cloud.
L’Edge ou informatique en périphérie de réseau est l’intégration entre ce traitement et ce stockage en local et le Cloud. Si l’intégration se réalise avec le centre de données traditionnel de l’entreprise, on parle alors de Fog computing. Les deux environnements se présentent sous une forme distribuée qui permet des traitements décentralisés. De plus, cette manière de traiter les données réduit l’utilisation de bande passante Internet. Le Gartner voit dans l’Edge computing un complément à l’approche très centralisée des fournisseurs de Cloud hyperscale (AWS, Azure, GCP).
Une redistribution du marché
Sur ce secteur en ébullition, les acteurs de l’informatique ne sont pas seuls même si certains comme HPE affichent de grandes ambitions et de lourds investissements (4 milliards de dollars et la volonté d’être le premier sur le marché). Ils vont se confronter d’abord aux fournisseurs de capteurs comme ZigBee ou Sigfox. Mais les industriels comme Siemens, General Electric, ABB, Bosch proposent aussi des alternatives et développent également des plates-formes. Les opérateurs de télécommunications sont aussi présents avec l’avantage d’avoir déjà les réseaux de communication et de travailler sur les protocoles spécifiques de l’Internet des Objets. On peut citer Objenious, une filiale spécialisée de Bouygues Télécom. Les entreprises de service comme Atos ou Capgemini sont aussi sur les rangs avec leur expertise de l’intégration et de la conduite de projet. La communication est un élément important pour la transmission des incidents vers le centre de données ou le Cloud qui va permettre après le traitement local d’analyser l’incident et de traiter le problème en profondeur, voire par des outils de machine learning ou des éléments d’Intelligence artificielle de prévenir les incidents ou de réaliser de la maintenance préventive et non plus réactive sur des équipements largement géodistribués ou critiques comme dans un hôpital.
Une multitude de protocoles
Sigfox, LoRA, NB-IoT, Zigbee, NFC, BlueTooth, WiFi sont les protocoles les plus connus, mais il en existe une dizaine de principaux, tels que ceux-ci et bien d’autres développés par les industriels des capteurs. Chacun a sa spécificité et ses qualités, ce qui rend souvent difficile la conduite de projet du fait d’intégrations plus ou moins existantes entre ces différents protocoles.
Comparativement à d’autres pays comme les États-Unis ou les pays asiatiques, la montée en puissance en France est assez lente et seuls de grands acteurs comme Engie ou la SNCF se sont lancés dans des projets. Le cycle de vente est long et ne se réduit pas sur ce type de projet. Pourtant notre pays avait dès 2016 lancé un plan gouvernemental autour des technologies de l’IoT.
B. G.
Équipements dédiés
Scale Computing propose un équipement dédié pour les environnements Edge.
La tendance va encore se renforcer sur l’année à venir avec l’apparition d’équipements dédiés à ces environnements chez les constructeurs et les fournisseurs de stockage de données. Certains acteurs ne s’embarrassent pas de ce problème et proposent des services qui s’appuient sur leur plate-forme, comme Xi ioT chez Nutanix, qui peuvent s’installer sur des hardwares certifiés. Il en est de même pour VMware.
STOCKAGE : Unification et logiciel
Un rack de stockage fourni par Datrium au club de football américain de San Francisco des “ Forty-Niners ”.
Le volume des données ne fait qu’augmenter d’année en année. Fin 2018, le volume des données dans le monde était de 33 zettaoctets (1 zettaoctet = 1 milliard de téraoctets). Le volume sera de 47 zettaoctets à la fin de cette année.
Pour des raisons de conformité ou de prise de conscience que les données sont la véritable richesse des entreprises, le stockage est devenu un élément important de l’infrastructure. Il le sera encore en 2020. En 2025, ce seront 175 zettaoctets qui seront créés et stockés. Pour faire face à un tel déluge de données, les équipements de stockage sont devenus de plus en plus puissants en termes de performance et de réduction de la latence. Pour tenir le rythme, il a fallu aussi apporter plus d’intelligence et d’automatisation dans le stockage avec des fonctions automatique de placement de données sur le tiers de stockage le plus adapté selon la fréquence d’accès à la donnée ou sa criticité. Cette intelligence est facilitée par le développement de plates-formes qui unifient les différents usages : stockage, sauvegarde et archivage. L’autre grande tendance est de s’appuyer sur les ressources dans le Cloud pour offrir cet ensemble d’usages comme des services avec des abonnements selon les besoins, le volume stocké ou les ressources utilisées dans le Cloud. Dans ce cas, les solutions de stockage se déploient dans des containers ou des machines virtuelles sous la forme d’appliances virtuelles sur les ressources du Cloud choisi. Le secteur est très dynamique et compte de nombreuses jeunes pousses qui apportent leur part d’innovation. La grande tendance de 2020 sera certainement l’ajout de fonctions d’Intelligence artificielle pour apporter un plus en termes d’automatisation et rendre plus simple l’administration d’un tel volume de données.
B. G.
SD-WAN : La bonne année
Cela fait déjà quelques années que les fournisseurs de réseau proposent des solutions autour de la virtualisation du réseau WAN (Wide Area Network). 2020 pourrait être enfin l’année des déploiements de grande ampleur sur cette technologie.
SD-WAN correspond à Software-Defined Wide Area Network, soit “ réseau étendu à définition logicielle ”, et est présenté comme la nouvelle évolution majeure des télécommunications. Un SD-WAN facilite la gestion du réseau en séparant la partie management de la partie réseau. La généralisation de l’utilisation des applications dans le Cloud (SaaS) a démontré que les réseaux traditionnels n’étaient pas adaptés à cet usage intensif. Les responsables réseau des entreprises se sont donc tournés vers d’autres solutions, dont le SD-WAN qui simplifie la gestion du réseau en décorrélant la bande passante et les équipements réseau du niveau de contrôle qui est centralisé. Le principal avantage de la solution est de réduire aussi les coûts pour la connectivité vers le Cloud.
Notre perception que 2020 sera l’année du SD-WAN provient d’une rapide croissance du marché pour atteindre 9 milliards de dollars en 2021. D’ici à 2023, les cabinets d’analystes prévoient une croissance par an de 32,7 %. Forrester indique dans un de ses rapports que 90 % des gestionnaires de réseau veulent faire évoluer leur réseau étendu. Le but principal est de faire baisser les coûts autour du réseau qui représente de 21 % à 25 % du budget destiné au support d’un environnement utilisateur standard. Les cabinets d’analystes s’accordent à voir l’Europe de l’Ouest comme une zone allant connaître un fort développement sur cette technologie rattrapant les États-Unis qui sont aujourd’hui les principaux utilisateurs dans le monde.
B. G.
MULTI6CLOUD : Il s'impose comme le modèle dominant
Beaucoup d’entreprises ont initié leur marche vers le Cloud public en choisissant un fournisseur cloud unique. Elles choisirent notamment Salesforce pour qui le CRM fut la première expérience SaaS. Ce fut AWS ou Azure pour celles qui ont construit leurs premières applications cloud natives. Depuis, rares sont les entreprises à avoir mis tous leurs œufs dans le même panier. Elles n’hésitent pas à faire cohabiter divers CSP (Cloud Service Provider) dans leur système d’information.
Les études montrent qu’entre 70 à 80 % des entreprises sont d’ores et déjà dans une approche multi-cloud. De multiples raisons explique ce choix. Il s’agit bien souvent pour elles d’aller piocher les meilleures offres techniques chez l’un ou l’autre de ses CSP. Les outils d’intégration gèrent désormais parfaitement les principaux acteurs cloud et Kubernetes est en train de lever les derniers verrous pour faire circuler des workloads d’un Cloud à un autre. Oracle et Microsoft ont même signé un partenariat pour faciliter les échanges entre leurs Cloud et nul doute que de tels accords devraient se multiplier à l’avenir. Enfin, le succès du modèle multi-cloud témoigne aussi de la volonté des DSI de limiter leur “ vendor lock-in ” vis-à-vis de ces acteurs cloud devenus incontournables.
A. C.
RPA : Il envahit notre quotidien
Le RPA (Robotic Process Automation) est certainement la technologie qui aura fait le plus de buzz en 2019. Faut-il rappeler les levées de fonds record de 177 millions de dollars de Signavia, 290 millions pour Automation Anywhere, 568 millions de dollars pour UiPath et enfin l’acquisition de Novayre Solutions par Appian au tout début de cette année 2020.
Les investisseurs se sont emballés pour la technologie, mais surtout les entreprises se sont ruées sur ces solutions d’automatisation des processus. À peu près tout le gratin du secteur banque/assurance, des opérateurs télécom et des industriels de l’énergie ont déployé ce type d’outils à la fin des années 2010. L’heure est désormais au passage à l’échelle et à industrialiser les déploiements au sein de leurs organisations. En effet, les cas d’usage sont multiples et les métiers sont très demandeurs d’outils qui vont faciliter le travail de leurs collaborateurs.
Tout l’enjeu pour les pionniers des RPA est d’industrialiser les déploiements, passer de quelques RPA à plusieurs dizaines voire centaines de RPA par an. Le RPA est bien plus qu’un simple logiciel informatique, c’est un outil qui va redéfinir le travail, assurant l’essentiel des tâches répétitives et ne laissant à l’humain que la gestion des exceptions.
A. C.
TOUT LOGICIEL : L'IT entre dans une nouvelle ère
En 2011, Marc Andreessen, co-fondateur de Netscape, publiait dans le Wall Street Journal un article fondateur « Why software is eating the world ». Le logiciel évince de plus en plus d’équipements, l’exemple de l’iPhone remplaçant une cinquantaine d’objets du quotidien comme l’appareil photo, la radio, le walkman est désormais célèbre. L’impact du tout logiciel dans l’IT entreprise est tout aussi significatif à l’orée de cette nouvelle décennie. Avec l’essor du Cloud, bon nombre de solutions qui nécessitaient un hardware dédié sont désormais disponibles sous forme …As a Service ou sous la forme d’un logiciel à déployer dans une simple VM.
C’est le cas de l’ensemble des briques d’infrastructure réseau, depuis l’équilibreur de charge, jusqu’au firewall ou les passerelles de chiffrement en passant par le routage du trafic. Il est ainsi possible de constituer un datacenter virtuel complet dans le Cloud sans acheter le moindre hardware. Le constat est le même du côté des grands Data Warehouses où acheter des équipements de stockage dédiés va devenir l’exception. Quant à l’infrastructure matérielle du datacenter lui-même, celle-ci se résume de plus en plus à des racks de serveurs interconnectés à un simple commutateur de haut de rack… et c’est tout !
A. C.
MONITORING : Obtenir une visibilité complète
Plus connu sous les vocables d’ITOM (IT Operations Management), d’ITSM (IT Service Management) ou encore d’APM (Application Performance Management, lire article dans ce numéro en p. 60) et d’autres acronymes, le monitoring ou suivi des performances et du fonctionnement de l’informatique est devenu une pierre angulaire de l’exploitation. Il vise à proposer des services en ligne constamment accessibles et répond à l’impatience des utilisateurs qui supportent de moins en moins les temps d’attente pour charger les pages d’un site. En informatique l’incident, l’interruption de service devient quasiment une affaire d’État avec de nombreuses conséquences sur l’image de l’entreprise, le business avec du chiffre d’affaires en moins. Il convient donc de maintenir la disponibilité des systèmes. Les entreprises se dotent en conséquence d’outils logiciels qui leur permettent de suivre, souvent en temps réel, le fonctionnement de leur informatique de l’infrastructure au réseau en passant par les applications. Ce suivi leur apporte la visibilité la plus complète possible sur leur système. Globalement ce secteur est en forte croissance : 13 % sur l’année 2018.
Les éditeurs du secteur comme Splunk ou SolarWinds ont le vent en poupe. Ils ajoutent des éléments prédictifs avec l’utilisation de l’Intelligence artificielle ou de fonctions analytiques. Le fonctionnement de l’ensemble de l’infrastructure informatique est du coup sous étroite surveillance. Ces outils permettent d’obtenir des patterns et donc de voir lorsqu’un comportement anormal survient. Chacun des acteurs commence à sortir de son cœur de compétence pour étendre le champ d’application de ses logiciels.
À noter que le secteur a déjà connu une première vague de concentration avec de gros rachats comme celui d’AppDynamics ou de CA Technologies. Cette concentration devrait continuer au cours de l’année 2020.
B. G.
CONFORMITÉ : S'adapter à des changements constants
Les règles administratives ou légales évoluent rapidement et parfois sur des sujets très différents. Les exemples récents du RGPD ou de la CCPA – l’équivalent californien du RGPD – montrent bien les efforts que doivent consentir les entreprises dans le domaine. L’adaptation aux règles administratives ou légales va encore occuper les entreprises en 2020. Ce sera à la fois pour devenir conformes à des règles déjà en vigueur ou pour se préparer à le devenir pour de nouvelles règles qui vont devenir obligatoires dans les mois ou années à venir. Ainsi en septembre dernier, seule une entreprise sur trois était conforme au RGPD. Le non-respect des règles expose les entreprises à des risques souvent importants en termes d’image, de sécurité ou d’amendes parfois très élevées. Ainsi le régulateur britannique a mis à l’amende British Airways à hauteur de 183 millions de livres sterling pour mauvais dispositifs de sécurité, ce qui avait entraîné le vol de données concernant près de 500 000 personnes. Depuis 2009, les amendes ont coûté 342 milliards aux institutions financières et 850 milliards de manque à gagner.
Ces retards s’expliquent souvent par la complexité de la mise en œuvre de telles règles. Pourtant les entreprises qui réussissent à les mettre en place en retirent un avantage concurrentiel sur leur marché. Pour simplifier la démarche des entreprises, des éditeurs ont développé des logiciels pour rapidement identifier les données personnelles ou celles répondant à une réglementation spécifique dans la santé ou la finance. Compliance. AI en est un exemple avec une plate-forme qui suit les différents changements réglementaires. Elle analyse ensuite ces changements et édite des rapports permettant de visualiser les actions à entreprendre pour suivre les changements apportés à une règle de conformité.
B. G.
LOW CODE : Le futur des applications
Une vue de l’outil de développement Low Code de Pega.
Devant le manque de ressources humaines dans le secteur du développement d’applications et le besoin de rapidement répondre aux besoins métier, de nombreux éditeurs proposent maintenant des possibilités de développer des applications sans avoir une grande connaissance des langages de développement, voire aucune. Entre 2018 et 2023, 500 000 nouvelles applications logiques seront développées, soit une quantité égale à l’ensemble des applications développées à ce jour. En 2024, 65 % des applications seront développées sur ces plates-formes Low Code. Selon le cabinet Gartner, les entreprises utiliseront quatre plates-formes de ce type en interne à la même date. Celles-ci proposent des templates d’applications préconstruites et personnalisables, modifiables. Les applications se conçoivent à partir d’un langage déclaratif et peuvent fonctionner partout.
La tendance touche l’ensemble du monde logiciel dans son désir de simplifier l’accès aux applications et à des fonctions avancées auparavant réservées aux spécialistes. Ainsi, la start-up Toucan Toco reprend ce principe des templates pour permettre à des acteurs métier de développer des applications analytiques ou d’Intelligence artificielle répondant aux besoins de leur métier. L’éditeur en propose pour la plupart des secteurs d’activité et suit même les actions des ministres du gouvernement de notre pays ! Les grands industriels du secteur comme Oracle, Microsoft, SAP et Salesforce ont aussi ce type de plate-forme dans leur portefeuille. 2020 devrait être l’année où les entreprises se convertissent davantage à ce type d’outils pour infuser plus rapidement de l’innovation dans l’entreprise par des applications qui peuvent devenir des services ou pour automatiser certaines tâches récurrentes à faible valeur ajoutée.
B. G.
WORKSPACE : Le travail change, l'espace de travail aussi
La manière de travailler change sous la pression de la mobilité, du télétravail et d’une recherche de plus de productivité. L’espace de travail évolue dans le même sens pour faciliter à la fois le travail et la communication mais aussi pour apporter plus d’efficacité.
Ainsi, ne dites plus bureau mais Espace de travail numérique. Le Digital Workspace est une approche globale qui ne se contente pas de mettre à disposition des salariés des outils digitaux mais apporte un espace de travail complet qui comprend les outils de communication, de collaboration et les outils spécifiques selon le profil du collaborateur. Il permet aux collaborateurs d’accéder à leurs données et applications partout et sur tout type d’appareil.
Le nec plus ultra de l’espace de travail digitalisé comprend les éléments suivants : la virtualisation de postes et d’applications, le partage de fichiers et collaboration de contenus, la gestion unifiée des terminaux, un accès sécurisé aux applications web/navigateurs sécurisés, l’authentification unique (SSO) et des processus guidés et automatisés via machine learning. Les processus automatisés sont importants car la force de travail se diversifie et ne comprend pas seulement des humains mais aussi des robots et de l’Intelligence artificielle.
L’autre point important est l’intégration qui autorise l’accès à toutes les applications à partir d’une seule et unique interface. De nombreux logiciels utilisent parfois des outils tiers comme Slack ou WhatsApp comme entrée sur le reste de l’espace de travail digital. Des déclencheurs par API permettent à partir de cette interface de lancer des tâches ou d’attribuer des tâches sur d’autres applications présentes dans l’entreprise. Ce type d’espace de travail va donc remplacer les espaces de travail que nous connaissons actuellement et 2020 pourrait bien être l’année de déploiements étendus sur ce type d’espace qui dépasse la simple mise à disposition de téléphones et de laptops. Attention cependant à bien accompagner les salariés dans ce nouvel espace et à réfléchir à l’organisation qu’induit cette petite révolution dans le travail.
B. G.
CYBERSÉCURITÉ : L'IA a un rôle à jouer
En 2020, alors que les cyberattaques se complexifient et se font de plus en plus violentes, le secteur de l’IT va devoir s’emparer des armes adéquates pour faire face. L’Intelligence artificielle sera à coup sûr de celles-là. Selon une étude récemment menée par Crowdstrike auprès de professionnels de l’IT dans le monde entier, 77 % des entreprises privées ont subi au moins une attaque informatique depuis leur création. Un chiffre en augmentation d’année en année, qui s’explique notamment par un nombre toujours plus important d’outils à la disposition des attaquants. Pour faire face, les SI doivent multiplier les moyens de répondre aux offensives subies. Et parmi ces moyens, l’IA semble à la fois plus efficace et prometteuse.
Le principal constat des analystes sur l’évolution de la cybersécurité, c’est que là où la méthodologie des attaquants n’a pas beaucoup évolué depuis vingt ans, la surface d’attaque s’est étendue. Le développement croissant du Cloud a décuplé les possibilités de brèches dans les systèmes d’information, ce que les hackers ont très vite remarqué. Selon Renaud Bidou, directeur technique Europe du sud du Nippon Trend Micro, cet accroissement de la surface d’attaque impose un « énorme enjeu d’assimilation » qu’il faut prendre en compte dès cette année. « Les informaticiens se retrouvent face à des systèmes qui ne fonctionnent pas comme un réseau informatique lambda », analyse-t-il. Une problématique d’autant plus palpable dans les systèmes industriels dont la sécurité est conçue « avec des protocoles pas du tout adaptés aux risques actuels », et qui devront faire l’objet d’une attention particulière vu les données critiques en jeu.
Mieux gérer les alertes de sécurité
L’implémentation de l’IA dans de nombreux secteurs et supports peut être un avantage non négligeable dans l’anticipation des attaques. « On peut interconnecter les moteurs d’IA présents sur les postes, sur le réseau, sur le gateway… et créer un réseau de neurones qui va fournir de l’information contextuelle, créer tout un schéma de corrélation et potentiellement s’auto-corriger », poursuit Renaud Bidou. Un moyen de réduire le nombre d’alertes envoyées aux analystes, un autre enjeu primordial en 2020. « Des entreprises reçoivent jusqu’à 11 000 alertes par jour », note Grégory Cardiet, directeur avant-ventes EMEA de Vectra AI. « Avec 18 personnes dans l’équipe opérationnelle et cinq minutes en moyenne pour gérer une alerte, comment faire ? Pour moi il va y avoir de plus en plus d’outils qui ne vont pas forcément faire de l’analyse et de la détection pure, mais agir comme des assistants personnels. L’idée est d’aider l’analyste à prendre sa décision en utilisant la corrélation avec des événements passés pour détecter si un comportement similaire se dégage. »
Une meilleure gestion des alertes peut offrir un embryon de réponse à une problématique de plus en plus préoccupante selon lui : « la pénurie d’employés dont souffre le marché de la cybersécurité. Il y a environ 150 000 analystes de sécurité dans le monde, pour 300 000 postes ouverts. Si on réussit à arrêter les alertes qui ne servent à rien et qu’on aide les professionnels à être plus efficaces, cela rendrait le job plus attrayant, avec moins de compétences requises. »
Enfin, le secteur de la sécurité informatique doit plus que jamais prendre en compte le contexte mondial dans sa manière d’anticiper les offensives. C’est en tout cas ce que préconise Sam Curry, RSSI de Cybereason, qui évoque « les gros événements géopolitiques – élections américaines, Brexit, Jeux de Tokyo, ou la crise avec l’Iran ». Des points de tension auxquels le secteur de l’IT devra accorder toute son attention, car les entreprises privées ont tendance à devenir de formidables cibles de déstabilisation dans ce type de conflit, notamment via les cyberattaques.
B. L.
Intégrer l’IA dans les SOC
Thomas Anglade, responsable de l’équipe machine learning chez iTrust (Reevelium).
«
La vraie problématique aujourd’hui c’est d’intégrer l’IA dans les systèmes de supervision, les SOC. Les réseaux de neurones ne constituent pas forcément l’approche la plus adéquate car ce sont des boîtes noires. Or, l’un des enjeux que l’on a observé beaucoup dernièrement c’est le concept d’explicabilité. Comprendre pourquoi l’IA a pris cette décision, pouvoir interagir avec elle, lui dire quand elle a vu juste et ainsi se rapprocher au maximum d’une analyse humaine. En 2020, on va par exemple travailler sur la détection d’anomalies individuelles. On va essayer d’intégrer à nos données des sources textuelles comme les mails ou les logs, qui sont des données dures à traiter et qui demandent beaucoup de R & D pour apprendre aux algorithmes à les analyser. Cela permettra de détecter les tentatives de phishing, de plus en plus sophistiquées. »
API : Le fondement d'une nouvelle économie
Les API (Application Programmable Interfaces) sont devenues pour les développeurs un élément clé pour de nouvelles applications. À la fois “ glue ” et base de l’intégration applicative, les API sont une source de revenus. Autorisant l’extension des applications avec des services tiers, elles sont aussi l’élément fondamental pour la création de nouveaux services.
Si les API sont largement utilisées par les développeurs pour créer de nouvelles applications, elles s’imposent comme la base d’une véritable économie, l’API Economy. Les observateurs s’attendent à ce que les revenus générés par ces API croissent jusqu’à 2,2 milliards de milliards ! Devant de telles perspectives, rien d’étonnant à ce que le secteur soit un grand pourvoyeur de ce que l’on appelle les licornes. SendGrid, rachetée depuis pèse 3 milliards de dollars. Twilio vaut quant à elle 15 milliards de dollars. Stripe, Adyen, Scale ou Braintree sont d’autres stars du secteur.
Comment générer de tels revenus ? En créant un nouveau canal commercial à travers l’API ou en ouvrant sa plate-forme avec l’API et en travaillant avec des partenaires pour créer des services uniques sur le marché.
Ainsi, 90 % des revenus d’Expedia, le site de réservations de voyage, proviennent de son API. Pour Ebay, la proportion est de 60 %. Plus étonnant encore 50 % des revenus de Salesforce ont ses API pour origine.
Les entreprises suivent le mouvement et ouvrent de plus en plus leurs API vers l’extérieur. Près de 28 000 de ces API existent actuellement. Pour les aider, de nombreux éditeurs les aident à développer et à gérer leurs API. Apigee, acquis par Google, Mulesoft, repris par Salesforce, Layer 7, dans le giron de CA Technologies (Broadcom), Mashery repris par Tibco et Apiary (Oracle) sont aujourd’hui des contributeurs significatifs de revenus en permettant aux entreprises de développer de telles API mais aussi de gérer les différentes interfaces et la sécurité.
Les API privées se font une place
Les API publics dont nous venons de parler ont leur pendant interne dans l’entreprise à partir d’API privées. Selon une étude réalisée pour le compte de Nginx, 68 % des entreprises utilisent ou testent des micro-services en s’appuyant sur des API privées. D’après un sondage réalisé pour Imperva, un éditeur de solutions de sécurité, la moitié des entreprises utilisent plus de 300 API. Des entreprises comme Microsoft ou Amazon ont d’ailleurs désormais des stratégies d’entreprise autour des API.
Le marché de la gestion des API est dominé par Apigee de Google, Mulesoft, suivi de Software AG, IBM et Axway. Ces acteurs fournissent des suites complètes de gestion et de sécurisation des API qu’elles soient publiques ou internes. Des outils de ce type sont nécessaires car la multiplication des API rend leur gestion complexe, mais nécessaire pour le fonctionnement des services et surtout elles permettent de suivre l’évolution des besoins de plus en plus sophistiqués des entreprises.
B. G.
Place de marché
Pas moins de 90% des revenus de l’agence de voyages en ligne Expedia proviennent de son API.
Devant la complexité et les coûts autour des plates-formes de gestion des API, une nouvelle vague d’entreprises a développé des solutions plus simples pour l’utilisation et la gestion des API. RapidAPI, par exemple, a créé la première plateforme reprenant le modèle de place de marché pour des API. Fondée en 2015, l’entreprise regroupe sur sa plate-forme plus de 10 000 API et est utilisée par un million de développeurs dans le monde. Elle connaît des milliards d’appels d’API. Ebay, Rakuten, Cisco ou encore Hyatt sont clients de la plate-forme. Récemment, l’entreprise a développé une déclinaison, un hub, pour aider les entreprises à gérer leurs applications internes. Rakuten est un utilisateur de ce type de Hub.
QUANTIQUE : La France crée trois Hubs
À l’heure où Google annonce une percée majeure, revendiquant avoir atteint la suprématie quantique, la France se fend d’un rapport sur le sujet. L’étude portée par la députée LREM Paula Forteza s’ouvre sur un constat : « Seuls les pays qui auront osé prendre des risques trouveront une place dans ce nouveau tournant technologique. » Et l’Hexagone a un atout majeur selon l’élue, à savoir un secteur de la recherche particulièrement actif. Mais en l’absence d’industriels et d’investissements, les chances du pays de briller en la matière se réduisent.
D’où les 37 propositions contenues dans ce rapport, une bonne partie d’entre elles faisant la part belle aux liens entre écosystème académique et monde de l’entreprise. À commencer par l’appel à créer, à Paris, à Saclay ainsi qu’à Grenoble, trois hubs quantiques qui rassembleraient chercheurs, ingénieurs, industriels et utilisateurs finaux. Paula Forteza propose également que soient accompagnées une cinquantaine de start-up ou encore développée « une offre public-privé de Quantum Computing as a Service ». Il faudra en passer par là, et par un investissement de l’État aussi bien que du secteur privé, pour que la France pèse dans les domaines du calcul, des capteurs et de la cryptographie quantique. Mais tout ceci a un coût : 1,4 milliards d’euros sur 5 ans.
G. P.
PUCES : Le 5nm cette année, le 3 dans la foulée !
Loi de Moore certes, mais le silicium n’a pas encore dit son dernier mot. Alors que la gravure en 7 nm fait l’objet d’un pic de demande de la part des constructeurs, les fondeurs annoncent la livraison des premières puces 5 nm pour la fin de l’année 2020. Ainsi on a appris début janvier que l’A14, le processeur qui équipera les futurs iPhones 12 – attendus pour septembre – seront gravés en 5 nm. De même, AMD annonce dans sa feuille de route que la cinquième génération de ses Ryzen, prévus pour 2021, sera elle aussi gravée en 5 nm. AMD tout comme Apple sont en effet les premiers à profiter des toutes nouvelles lignes de production du Taïwanais TSMC.
Le fondeur, après avoir levé le voile sur sa technologie de gravure 5 nm en avril dernier, assure que la production pourra débuter en mars. Il est au coude à coude avec Samsung Foundry, qui a certes pris du retard sur le 7 nm mais s’est positionné très tôt sur le 5 nm, et va même plus loin en annonçant la gravure en 3 nm, dont il a déjà produit de premiers prototypes. Le calendrier du Sud-Coréen est ambitieux, puisqu’il entend lancer la production à la chaîne en 2021. TSMC vise de son côté une production en 2023. Du côté d’Intel, on est toujours sur du 10 nm, le 7 nm étant prévu pour l’an prochain, le 5 nm en 2023 et le 3 nm en 2025.
G. P.
EXAFLOP : Qui sera le premier ?
Qui sera le premier à atteindre l’exaflop ? Certains observateurs du secteur prévoyaient, jusqu’en 2018, que les ÉtatsUnis, le Japon et la Chine pourraient lancer en 2019 ou 2020 des supercalculateurs capables d’atteindre 10 puissance 28 calculs par seconde. Mais, des trois concurrents, seule la Chine continue d’affirmer qu’elle pourra livrer son supercalculateur exaflopique cette année. Et encore… l’empire du Milieu est particulièrement avare de détails concernant cet exploit. Aux États-Unis, ce sera pour 2021. Aurora, assemblé par CrayHPE et Intel pour le centre de recherche d’Argonne, dépendant du Department of Energy, à Chicago, sera opérationnel en 2021 et atteindra l’exaflop. Il sera toutefois dépassé cette même année par Frontier, toujours développé par Cray mais cette fois-ci avec AMD, qui devrait atteindre 1,5 exaflop de puissance de calcul. Ce second supercalculateur équipera pour sa part l’Oak Ridge National Laboratory, qui accueille déjà le supercalculateur le plus puissant à l’heure actuelle, le Summit, et ses deux cents “ petits ” petaflops.
Pendant ce temps, au Japon, Fujitsu entend revenir dans le Top 5 des supercalculateurs avec le Post-K, supercalculateur destiné à remplacer le K-Computer de Riken. Le Post-K devrait être opérationnel lui aussi en 2021. En Europe enfin, l’initiative EuroHPC, co-financée par l’UE, devrait voir deux machines exascales livrées en 2022 ou 2023. Le Vieux Continent entend profiter de la course à l’exaflop pour rattraper son retard : seule l’Allemagne a pu placer un supercalculateur dans le Top 10 mondial, tandis que le premier Français, le Bull Sequana X1000 du CEA, arrive derrière l’Italien HPC4 d’Eni.
G. P.
"AIOPS" : La vague de l'IA touche la production informatique
Les différents composants d’une solution AIOps.
Le changement d’échelle qu’induit le Cloud, ainsi que la complexification des environnements informatiques combiné à un manque de compétences dans à peu près tous les secteurs de l’informatique, font que l’automatisation des opérations devient nécessaire. Cette automatisation se réalise par l’ajout de fonctions d’Intelligence artificielle ou de machine learning dans les logiciels chargés du suivi et de l’administration des systèmes informatiques.
Selon Gartner, les plates-formes d’Intelligence artificielle dédiée aux opérations informatiques (AIOps) associent les fonctionnalités de big data et de machine learning pour prendre en charge les fonctions d’exploitation informatiques principales, grâce à une analyse évolutive du volume, de la variété et de la rapidité croissantes des données générées. Le cabinet d’analystes défend cette approche depuis près de deux ans et celle-ci commence à se concrétiser. Des acteurs comme Splunk ou ServiceNow ont été pionniers dans le domaine en ajoutant des fonctions analytiques avancées dans leur plate-forme depuis leur création. Aujourd’hui, l’approche se généralise et la plupart des éditeurs de solutions de supervision quel que soit le secteur (applications, réseau, infrastructure, services …) utilisent la possibilité d’ajouter du machine learning dans leurs outils logiciels.
Le marché va d’ailleurs connaître une forte croissance. Il était évalué à 1,64 milliard de dollars en 2019 et devrait atteindre 6,88 milliards de dollars en 2025 avec un taux de croissance annuel de 27 %. Selon Gartner, 30 % des grandes entreprises utiliseront ce type de technologie de supervision en 2023. Aujourd’hui, elles ne sont que 5 % à le faire. On peut donc estimer légitimement que 2020 devrait connaître une forte croissance du déploiement de ces outils.
Une révolution pour la productivité
Le but de l’AIOps est évidemment d’automatiser ce qui est automatisable dans la production informatique en apportant une vue temps réel à partir des données qui transitent sur le réseau en rapport avec l’exploitation de l’informatique. À partir des logs, traces et autres éléments fournis par l’informatique, ces logiciels analysent et apprennent le comportement normal de votre informatique.
Un des avantages de ces outils est donc de pouvoir détecter plus rapidement les comportements anormaux ou quand surviennent des signes avant-coureurs d’incidents comme une hausse des temps de réponse d’une application ou d’une base de données. Ces logiciels proposent même des solutions de remédiation à des incidents. Reste cependant à l’humain de prendre la décision de suivre la préconisation de l’Intelligence artificielle ou non.
Certains logiciels comme celui de l’Israélien Ayehu se proposent même d’automatiser totalement le service desk des entreprises dont 85 % des coûts sont des ressources humaines. Avec humour le CEO de cette entreprise indique que son opérateur virtuel ne prend jamais de pause-café ! Cette approche drastique n’est cependant pas la plus simple à mettre en œuvre du fait de la résistance des équipes informatiques qui se sentent dépossédées de leur fonction. Une conduite du changement appropriée est donc nécessaire pour démontrer l’avantage qu’en tirent les équipes pour fournir un meilleur travail et une meilleure exploitation informatique grâce à l’Intelligence artificielle.
L’automatisation peut prendre différentes formes et des solutions existent intégrant des robots s’appuyant sur le traitement du langage naturel. Il s’agit de fournir des automatismes s’occupant de tâches fastidieuses répétitives et n’ayant pas grande valeur pour l’entreprise, comme le changement de mot de passe oublié un lundi matin !
B. G.
5G + WIFI6 : Vers un printemps de l'innovation
L’édition 2020 du Consumer Electronics Show à Las Vegas (7-10 janvier) a de nouveau attiré des visiteurs du monde entier pour découvrir les dernière tendances en matière d’IoT, d’informatique, de smartphones, de robotique, d’Intelligence artificielle et de technologies avec la 5G et le WiFi 6 en vedette. Dans les smartphones, tous les regards étaient évidemment tournés vers la 5G. Samsung a montré toutes ses déclinaisons dont le Galaxy Fold 5G, tout comme Huawei et son Nova 5T.
Le Coréen LG est quant à lui reparti avec un CES Award pour le G8X ThinQ qui, en plus d’être compatible 5G, intègre un double écran pour du multi-tâche. Avec ce smartphone nouvelle génération, l’utilisateur peut surfer sur le Web tout en regardant une vidéo sur le second écran. Les marques Motorola et Xiaomi auront elles aussi leurs modèles 5G grâce à l’intégration des nouvelles puces Snapdragon de Qualcomm. D-Link a présenté en avant-première son antenne extérieure 5G (DWR-21100) à destination des particuliers afin d’augmenter la puissance du signal dans une maison. Pour finir sur les smartphones et les tablettes, la start-up californienne a dévoilé le HomeSoap. Après le PhoneSoap 3, qui utilise les UV-C pour détruire les bactéries sur les téléphones en quelques secondes, le HomeSoap reprend la même technologie mais dans un format plus grand pour y glisser une tablette. La 5G a également trouvé sa place dans les ordinateurs portables comme l’a montré Lenovo avec le tout premier modèle : le Yoga 5G. Intégrant une puce Qualcomm Snapdragon 8cx 5G Compute, ce modèle tactile est doté de neuf antennes internes. Il devrait être disponible au printemps pour un prix de 1 499 dollars.
Concernant le WiFi 6, TP-Link dévoilait son routeur AX-1800 pour couvrir les zones les plus inaccessibles d’un bâtiment avec jusqu’à douze appareils connectés en même temps et sans réduction de débit. Dans la même veine, D-Link présentait le nouveau Mesh Covr-1902 AC1900. « Notre nouveau Mesh Covr est compatible WiFi 6 et va couvrir une surface de 550 m2. Il fonctionne comme les précédents modèles puisque l’utilisateur passera d’un routeur à l’autre en fonction de la puissance du signal. Il sera vendu au prix de 270 dollars et convient parfaitement aux maisons où se trouvent de plus en plus d’objets connectés », indique Trent Prestegar, product marketing manager.
M. C.
Un portable de 860 g !
De son côté, Toshiba a joué la carte de la légèreté en annonçant la sortie prochaine du portable le plus léger du marché. Pas de technologie 5G dans ce cas mais un poids de 860 grammes pour le Dynabook Portégé X30L (13 pouces). La marque japonaise mise sur des processeurs Intel Hexa-Core et surtout sur un châssis en magnésium pour garantir légèreté et solidité. Il sera disponible dans le courant de l’année avec plusieurs configurations.
IOT : La maison en pleine transformation
Du côté de la maison, le déploiement des standards nouveaux de communication donne lieu à de nouvelles applications pour rendre les maisons plus intelligentes, comme l’ont démontré récemment les entreprises françaises Somfy et Legrand. Cette dernière a remporté un CES Award pour son système Drivia – en partenariat avec Netatmo – qui s’intègre directement dans le panneau électrique et dont la mission est de gérer les lumières et l’électroménager pour réduire la consommation d’énergie.
Flovea s’attaque quant à lui aux fuites d’eau avec un boîtier, la Flowbox, qui permet de contrôler la consommation. Grâce à l’Intelligence artificielle et quelques semaines pour connaître les habitudes, la Flowbox pourra même indiquer s’il y a une fuite sur une application. Pour une maison plus sûre, Linksys (Belkin) a dévoilé Linksys Aware qui fonctionne en lien avec les Mesh Linksys pour détecter tout incident dans la maison sans ajouter de caméra. La start-up française DeNoize propose de son côté un système de réduction de bruit des fenêtres par résonance. Pour l’électroménager, Samsung et LG ont dévoilé plusieurs concepts de robots pour aider à la préparation d’un repas ou pour faire la vaisselle.
Samsung, encore lui, a présenté son frigidaire connecté qui analyse ce dont il est garni et qui est capable de vous proposer des recettes en fonction de ce qui est au frais.
M. C.
Somfy prend soin de la qualité de l’air
Sur son stand, Somfy présentait de nombreuses applications domotiques avec un focus sur son concept d’amélioration de la qualité de l’air, “ Control Air io ”, pour les habitations. Associé au système “ Sliding Air io ”, qui permet d’ouvrir automatiquement une fenêtre et de la sécuriser, le capteur Control Air io assure la ventilation quotidienne. «
Notre appareil fonctionne grâce à l’intégration de capteurs de température et d’humidité qui détectent les baisses. Il refermera la fenêtre dès que l’air aura été renouvelé », explique Carine Bocquet, directrice du marketing international de Somfy. Avec son fonctionnement autonome, grâce à des piles, le Control Air io sera commercialisé dans le courant de cette année.
Samsung fait le show avec son Ballie
Au CES, Samsung a fait forte impression avec son robot domestique Ballie. Doté d’une Intelligence artificielle, ce petit robot en forme de balle, intégrant une caméra et des capteurs, se veut le compagnon de tous les jours pour accomplir des actions avec des appareils connectés de la maison : ouvrir des stores, contrôler un aspirateur, filmer l’intérieur en l’absence du propriétaire, envoyer des alertes, allumer la télévision… Pour le moment, il ne s’agit que d’un prototype et Samsung n’a donné aucune information concernant sa production, sa commercialisation ou son prix. Lors du keynote de la marque, Huyn-Suk Kim, président et CEO de Samsung Electronics, a insisté sur l’importance que la marque attacherait à la confidentialité de toutes les données.