Comment mieux utiliser le logiciel libre

Comment mieux utiliser le logiciel libre

Le Paris Open-Source Summit (POSS) s’est déroulé du 5 au 6 décembre 2018. La veille, juste avant la soirée inaugurale, s’est tenu l’Open CIO Summit, réservé aux décideurs IT. Le parrain de l’édition 2018 était aussi le vice-président aux programmes du POSS : Stéphane Rousseau, DSI groupe d’Eiffage et administrateur du Cigref. Celui-ci a aussi piloter le groupe de travail du Cigref ayant réalisé le rapport « L’open-source, une alternative aux grands fournisseurs ».

« L’open-source est partout et, souvent, c’est même le premier choix dans beaucoup d’entreprises, l’achat d’une solution propriétaire devant être justifiée » a indiqué Noël Cavaliere, Chief Technical Architect du groupe PSA, en ouvrant l’édition 2018 de l’Open CIO Summit. Il en était le vice-président au côté de Véronique Torner, présidente. Même les grands prestataires comme IBM ou Microsoft se revendiquent contributeurs de l’open-source. Cependant, l’open-source est souvent « un truc d’informaticiens », cantonné au back-office, nettement moins au contact des utilisateurs finaux.

Un succès avec une part sombre

Le succès de l’open-source est cependant parfois à double-tranchant. Noël Cavaliere a ainsi dénoncé : « Docker, Elasticsearch et d’autres solutions connaissant un grand succès proposent souvent des fonctions avancées contre paiement ». Malgré tout, l’open-source continue de porter l’innovation dans le cadre de nouveaux business models digitaux. Et c’est d’autant plus vrai que les budgets ne croissant pas suffisamment pour absorber les besoins numériques. La limite au déploiement de l’open-source est, autant que la raison de son déploiement, budgétaire. « Migrer à partir du propriétaire n’est pas évident car une telle migration iso-fonctionnelle est difficile à justifier face à des projets ayant de la valeur métier » a reconnu Noël Cavaliere.

Le parrain de l’événement, Stéphane Rousseau, est ensuite intervenu en apportant, en bon parrain, un petit cadeau. En l’occurrence, il s’agissait de la présentation du tout nouveau rapport du Cigref « L’open-source, une alternative aux grands fournisseurs ». Ce sont 80 personnes d’une quarantaine d’entreprises qui ont contribué à ce travail. Ce document fait le point sur l’évolution ces dix dernières années dans les perceptions des entreprises. « Les problèmes rencontrés par les entreprises dans leurs relations avec les fournisseurs est un sujet majeur pour le Cigref » a rappelé Stéphane Rousseau, justifiant ainsi que l’association se soit penchée sur la promotion de l’open-source et sur les manières de concevoir une alternative à des fournisseurs trop puissants. Autre sujet majeur pour les DSI : le recrutement, où les difficultés demeurent importante. Et Stéphane Rousseau a constaté : « choisir l’open-source est un facteur d’attractivité de la DSI lors d’un recrutement ».

Windows élargit les options d’interaction avec votre appareil pour que vous puissiez choisir celles qui vous conviennent le mieux et vous rendent le plus efficace. Découvrez–le.

Par delà le logiciel libre au sens premier

« GitHub est le plus puissant outil de recrutement au monde, un profil d’un développeur jouant le rôle d’un CV » a confirmé Philippe Dewost, Directeur de Leonard au sein du Groupe Vinci. Mais le logiciel n’est pas le seul domaine informatique pouvant être « libéré ». Philippe Dewost a ainsi présenté : « Et si le hardware devait lui aussi basculer vers l’open source… ». Au départ, Facebook (mais aussi Google, Microsoft ou d’autres) avait des besoins massifs de capacités informatiques peu chères.

Une fois l’architecture mise au point, la faire évoluer et la maintenir nécessitait des moyens et ce n’était pas là le métier premier de ce géant du web. Le travail effectué a donc été confié à une fondation dédiée et d’autres acteurs du web ou du logiciel se sont joints à l’initiative. Ces machines peu onéreuses sont ensuite massivement recyclées avec un cycle de vie étendu : d’abord pour du cloud à basse exigence puis comme switches.

Pas la panacée

Plus provoquant, vu le public, a été Daniel Dure, directeur des systèmes d’information de Météo France en intervenant sur « Comment devenir prisonnier du logiciel libre ». De fait, lorsqu’une entreprise paye des licences, elle se préoccupe un minimum de ce qui est installé et, la maintenance étant payante, on tente d’en avoir pour son argent en utilisant les patches. Mais, quand le logiciel est, du point de vue licences, gratuit, ces garde-fous disparaissent. Il faut donc être particulièrement vigilant et veiller notamment à ne pas laisser n’importe qui installer n’importe quoi et laisser traîner de vieilles versions non-sécurisées ou simplement hétérogènes. « Avoir des gens pour administrer le parc, cela a évidemment un coût… Quand ça coûte dix fois moins cher qu’avant, ça ne coûte pas rien » a relevé Daniel Dure. Des trois attitudes possible vis-à-vis de l’open-source, ce « subir » est évidemment la plus mauvaise. S’approprier est nettement préférable, avec une découverte progressive du produit et un déploiement lui aussi à réaliser petit à petit. Le mieux demeure bien sûr de contribuer voire de créer. Comme tout établissement public, le logiciel créé par Météo France est forcément open-source, ce qui permet d’aider des structures homologues dans des pays peu développés.

Enfin, le dernier intervenant a été Farzad Farid, senior infrastructure & operation manager, chez Chauffeur privé. Déjà intervenu le matin même sur la conférence CIO Piloter la performance de la DSI, il a détaillé son expérience du déploiement de conteneurs et de l’orchestration, avec Heroku, Docker et Kubernetes.

Microsoft met WPF, WinForms et WinUI XAML en open source

Microsoft met WPF, WinForms et WinUI XAML en open source

Les développeurs vont pouvoir contribuer aux trois frameworks Windows UX de Microsoft sur GitHub et même construire une copie privée de la pile d’interfaces utilisateurs.

Microsoft vient de mettre en open source trois frameworks Windows UX, Windows Presentation Foundation (WPF)Windows Forms, et Windows UI XAML (WinUI) Library. Ces derniers sont disponibles sur GitHub, ce qui permettra aux développeurs de contribuer à la technologie client UX de Microsoft, d’aider au débogage et aux correctifs. De plus, il sera possible de construire une copie privée de la pile UI. Grâce à cette ouverture, le framework open source .Net Core 3 pourra supporter WPF, Windows Forms et Universal Windows Platform (UWP) XAML, de sorte que les applications Windows existantes et à venir pourront fonctionner sur .Net Core.

Windows Presentation Foundation permet de créer des applications de bureau clientes. Comme l’explique Microsoft, « la plateforme de développement WPF prend en charge un large éventail de fonctionnalités de développement d’applications, notamment un modèle d’application, des ressources, des contrôles, des graphiques, une disposition, la liaison de données, des documents et la sécurité ». WPF intègre notamment un moteur de rendu capable de tirer profit des hardwares graphiques modernes.

WinForms pour des clients riches

Windows Forms (ou WinForms) est l’interface graphique incluse dans le framework .Net. Elle permet de développer des « clients intelligents », qualifiés par Microsoft d’applications graphiques riches, faciles à déployer et à mettre à jour. Ces applications peuvent fonctionner, connectées ou non à Internet. WinForms offre une surface visuelle, un formulaire, pour afficher des informations à l’utilisateur. Les implémentations WinUI sont rétrocompatibles avec la plate-forme UI UWP XAML par défaut pour Windows 10. Les trois frameworks WPF, Windows Forms et WinUI XAML sont téléchargeables à partir de leurs référentiels GitHub respectifs WPFWindows Forms et Windows UI XAML Library.

Foliateam rachète la SSII Apps2team

Foliateam rachète la SSII Apps2team

Troisième acquisition de l’année pour Foliateam qui a mis la main sur la SSII Apps2com. Cette dernière est devenue une division du groupe au 15 novembre et dépend désormais du comité de direction de Foliateam.

Après avoir procédé à l’acquisition des activités franciliennes de Quonex (spécialisé dans les communications unifiées) en janvier, puis à celle de Resophone Group en octobre, l’opérateur Foliateam annonce une troisième opération de croissance externe en 2018. C’est sur la SSII Apps2com que le groupe a jeté son dévolu. Cette dernière propose des services et des applications de communication et de collaboration aux entreprises. La société a officiellement rejoint le groupe Foliateam le 15 novembre et prend ainsi le nom de Foliateam-Apps2com.

L’acquisition d’Apps2com permet notamment à Foliateam de renforcer ses compétences dans le domaine des télécoms et d’étendre sa présence régionale dans les Hauts-de-France, à Lille et Arras, en Normandie, au Havre, et de consolider ses activités dans les régions Rhône-Alpes et Nouvelle-Aquitaine et Occitanie. Les collaborateurs de l’ESN présents sur ces différentes régions vont progressivement rejoindre les équipes correspondantes de Foliateam.

Francis Houot est nommé directeur général de la nouvelle entité. Pour intégrer au mieux les activités d’Apps2com au sein du groupe, Edouard Gosselin a été nommé directeur général opérationnel. Il a pour principales missions de piloter l’activité au quotidien et de préparer la bonne intégration des activités et des collaborateurs au sein du groupe.

AWS livre sa version optimisée de TensorFlow et accélère SageMaker

AWS livre sa version optimisée de TensorFlow et accélère SageMaker

Les services d’apprentissage machine d’AWS bénéficient d’une série d’évolutions annoncées sur re:Invent 2018 – à Las Vegas jusqu’au 30 novembre. Parmi les nouveautés, une version optimisée de TensorFlow et le service d’inférences sur un mode pay-as-you-go. SageMaker bénéficie de son côté de l’apprentissage renforcé et de la classification automatique des données.

Déjà bien fourni, le catalogue de services d’apprentissage machine d’AWS s’enrichit avec l’ajout de services pour les développeurs, de modèles et d’algorithmes pour la plateforme managée SageMaker, du data labeling automatique et des versions optimisées de TensorFlow et d’autres bibliothèques de machine learning. La dernière évolution de TensorFlow concoctée par AWS est proposée en disponibilité générale. Elle automatise la mise à l’échelle des jobs et leur répartition entre plusieurs nœuds EC2 exploitant des GPU. Cette amélioration de l’efficacité opérationnelle sur des dizaines de GPU accélère l’apprentissage des modèles par rapport à une mise en place manuelle, pointe Amazon.

Autre évolution de l’offre de machine learning, AWS accélère le service d’inférences à partir de modèles à l’échelle et permet de limiter le coût en GPU en fonction des besoins d’apprentissage. Amazon Elastic Inference prend les modèles des frameworks habituels (TensorFlow, Apache MXNet, etc.) et les utilise pour servir des prédictions à partir d’une instance EC2 relativement modeste qui dispose de performances GPU pouvant être montées en puissance ou réduites si nécessaire. Le client ne paie que pour la puissance GPU utilisée. L’idée ici est donc de ne pas mettre en route une instance EC2 trop puissante qui ne serait en grande partie pas utilisée.

Automatisation du classement des données dans SageMaker

AWS a aussi complété SageMaker, son service entièrement managé par AWS qui permet de créer des modèles et des workflows de machine learning (ML). De nombreux modèles ML ont besoin de données ayant été catalogué ou pré-classifiées. Il s’agit de tâches très chronophages parce qu’elles sont généralement faite à la main. Avec l’arrivée de Ground Truth, SageMaker apprend à étiqueter un jeu de données en temps réel au moment où elles sont classées par les utilisateurs spécialisés sur ces tâches. Une fois entraînées sur un jeu de données, le service peut appliquer automatiquement cette classification sur d’autres données.

Une autre difficulté du machine learning concerne le renforcement des systèmes d’apprentissage quand le modèle est continuellement affiné sur la base des feedbacks obtenus sur le terrain. SageMaker RL (real-world) permet aux développeurs de bâtir, entraîner et déployer en disposant d’un apprentissage renforcé à travers des algorithmes d’apprentissage renforcés managés, ces derniers étant packagés avec les différents éléments requis par les piles logicielles utilisées pour le faire. Un 3ème service vient compléter SageMaker, Neo. Celui-ci optimise les modèles ML pour qu’ils s’exécutent plus vite en consommant moins de ressources. Cela s’apparente à la façon dont les modèles TensorFlow sont déployés sur des machines d’entrée de gamme. Pour l’instant, Neo est limité au déploiement de modèles sur des instances Amazon EC2, sur les endpoints SageMaker et sur des équipements gérés par AWS IoT Greengrass, précise AWS. Par ailleurs, il est désormais possible d’acheter sur AWS Marketplace et de déployer sur SageMaker des modèles ML prépackagés pour les tâches métiers les plus répandues comme la prévision de la demande, la préparation de données ou le traitement en langage naturel.

Forecast génère des modèles à partir de données historiques

Enfin, Amazon Web Services a dévoilé différents services pour que les développeurs puissent ajouter de l’IA à leurs applications. Textract, par exemple, utilise l’apprentissage machine pour extraire des données de documents ou de formulaires. Un autre service de même nature se focalise sur le monde médical : Comprehend Medical utilise le traitement en langage naturel pour extraire des informations des notes prises par les médecins et des dossiers patients. Enfin, Forecast génère des modèles ML personnalisés à partir de données historiques, l’objectif étant de créer des prévisions présentant une dimension temporelle.

Chrome rejette désormais des certificats PKI de Symantec

Chrome rejette désormais des certificats PKI de Symantec

Le navigateur Chrome affiche désormais une erreur quand le certificat d’infrastructure à clé publique PKI a été émis par Symantec ou un de ses intermédiaires, Google jugeant que ces certificats ne sont pas dignes de confiance.

Les erreurs de certificats numériques sont devenues plus rares ces dernières années, d’où son étonnement. En particulier parce que le certificat à l’origine de l’erreur est utilisé par une assez grande entreprise et non par une petite boutique en ligne peu à l’aise avec les questions de sécurité informatique. Pour examiner le certificat numérique plus en détail et savoir d’où venait l’erreur, celui-ci a immédiatement cliqué sur le lien « Non sécurisé » précédant l’URL incriminée. Cela fait plus de 20 ans que notre confrère traite les sujets de Public Key Infrastructure (PKI) ou d’infrastructure à clé publique (ICP) et de certificats numériques et il aime bien comprendre les erreurs par lui-même et voir à quel niveau se situe le problème.

D’après les propres recherches de Google, plus une personne est informée sur les PKI et les certificats numériques, plus elle a tendance à ignorer les erreurs de certificat numérique et à aller sur des sites Web contenant des erreurs de certificat numérique malgré les risques. Pour cette même raison, pendant plusieurs années, Google et Microsoft ont pris le parti de fournir moins d’informations sur les certificats numériques en cas d’erreur. Heureusement, les deux entreprises semblent avoir changé d’approche et il est désormais possible d’inspecter l’erreur plus avant. C’est ce qu’a fait notre confrère. En examinant le certificat numérique incriminé, voici ce qu’il a découvert :

Google Chrome 

Légende : Détails sur l’erreur du certificat numérique (Crédit : Google)

Une erreur pas facilement identifiable

Autrement dit, il n’a trouvé aucune erreur ou défaut, du moins rien de facilement identifiable. Le site utilise le SHA256 (pas le SHA1). Il a une clé RSA 2048 bits (pas 1024 bits). L’objet, *.brighthouse.com, correspond à la page du site Web visité, et apparaît aussi sous le champ Subject Alternative Name (SAN). Généralement, selon notre confrère, la plupart des erreurs de certificat se situent dans les champs objet ou SAN, car elles sont liées au nom de domaine URL. Mais, dans le cas présent, il n’a trouvé aucune erreur facile à identifier. Ce qui l’a rendu encore plus perplexe.

Pour en avoir le cœur net, il a rapidement ouvert l’URL dans Microsoft Edge. Cette fois, le site Web et le certificat se sont affichés sans erreur. Dans le navigateur Edge, il a ouvert le certificat numérique, examiné le numéro de série et les valeurs de l’empreinte, et en les comparant au certificat numérique affiché par Google Chrome, il a constaté que c’était bien le même certificat. Mais pour une raison quelconque, Chrome n’aimait pas ce certificat. Il a quitté Edge et continué avec Chrome. Alors, il a fait ce qu’il aurait dû faire dès le départ : il a lu le message d’erreur affiché par Chrome.

Chrome Google 

Légende : L’erreur affichée par Chrome concerne spécifiquement le certificat PKI de Symantec. (Crédit : Google)

Un problème jugé sérieux par la communauté

Dans ce message d’erreur, il a pu trouver l’indice qui expliquait tout. À savoir NET: : ERR_CERT_SYMANTEC_LEGACY. L’an dernier, Google et Symantec se sont pas mal opposés sur des questions diverses, mais le véritable motif de conflit concernait l’émission, par l’intermédiaire d’une ou plusieurs activités PKI de Symantec (VeriSign, Thawte, GeoTrust, RapidSSL, etc.) de certificats incluant des noms de domaine Google pour des entités n’appartenant pas à Google.

Le problème avait été jugé sérieux par la communauté de la sécurité informatique. Après des critiques sévères, Google a finalement estimé que la communauté de la sécurité ne pouvait plus faire confiance à Symantec ou à tout certificat numérique émis par Symantec. Au point que le géant technologique a annoncé, entre autres choses, l’invalidation prochaine de tous les certificats émis par Symantec. La décision impliquant le rejet des dizaines de millions, voire des centaines de millions de certificats publics émis par les autorités PKI de Symantec a paniqué une grande partie du monde. Des millions de sites Web très populaires et de confiance pourraient commencer à provoquer des erreurs.

Plus d’erreurs de certificats dans Chrome

Après avoir consulté la plupart des acteurs de l’industrie, dont le très respecté CA/Browser Forum chargé des normes PKI, Google a décidé de retarder l’invalidation des PKI de Symantec et de les introduire plus progressivement. Or, ce moment est arrivé. Google a expliqué son calendrier et comment les différentes versions de Chrome ont progressivement intégré la restriction. Il s’avère que toutes les grandes entreprises qui auraient dû mettre à jour leurs certificats avant aujourd’hui ne l’ont pas fait. Les plaintes des clients et des cadres vont probablement obliger ces entreprises à se mettre à jour dans les plus brefs délais.

Même si notre confrère estime, comme d’autres, que la solution de Google a été un peu brutale, il trouve normal que Google applique des règles de sécurité à ses propres produits et que l’entreprise a le droit de pêcher par excès au nom de la sécurité. Cependant, il aurait aimé que le message d’erreur affiché dans Chrome soit un peu plus informatif et moins alarmiste. Par exemple, prévenir le visiteur que l’entreprise à laquelle il se connecte « utilise un certificat numérique invalide », et lui fournisse plus de détails vient un lien, au lieu de le mettre en garde contre un piratage imminent. Il se demande pourquoi les messages d’alerte offrent si peu d’informations utiles au visiteur occasionnel. C’est peut-être pour cette raison que sa première réaction a été d’outrepasser le message d’alerte et d’essayer d’en savoir plus.

Tout cela pour dire que si vous utilisez Google Chrome, vous verrez sûrement plus d’erreurs de certificats numériques. Si « Symantec_Legacy » apparaît dans le message d’alerte, vous saurez de quoi il s’agit.

Encore plus d'IoT dans la distribution en 2019

Encore plus d’IoT dans la distribution en 2019

L’usage des technologies IoT gagne rapidement du terrain dans la vente de détail. Mais, l’app killer n’est pas encore là.

Les entreprises du secteur de la distribution voient émerger des opportunités attractives dans l’usage des technologies IoT, mais l’année 2019 sera probablement plus marquée par des programmes pilotes et des tests à petite échelle que par des bouleversements généralisés. Combler le fossé entre les achats en ligne et les achats en personne, développer l’automatisation et de nouvelles manières de communiquer avec les clients (surtout en leur montrant des publicités) présente un avantage majeur pour les détaillants, mais l’IoT commence à peine à s’imposer.

L’arrivée de ces technologies dans le monde du commerce de détail n’est pas spécifique au commerce de détail lui-même. Selon les analystes, comme dans d’autres secteurs industriels, les entreprises utilisent des systèmes de gestion des actifs, des systèmes de CVAC intégrés et d’autres techniques de bâtiment intelligent. Mais ces derniers temps, les détaillants physiques ont traversé une période difficile à tout point de vue, et l’investissement dans de nouvelles technologies ne figure plus en tête de leurs priorités. Néanmoins, l’IoT s’immisce lentement dans le commerce de détail et, comme on peut s’y attendre, c’est un des acteurs les plus importants qui montre la voie.

Une expérience d’achat 100 % automatisée

Cela fait longtemps que le géant du commerce de détail Amazon utilise les technologies IoT. La complexité et l’automatisation de son vaste réseau de chaînes d’approvisionnement et de ses fonctions logistiques, totalement axées sur l’efficacité, sont déjà bien documentées. Des armées de robots se disputent les paquets dans d’immenses entrepôts et des logiciels de planification et de développement centralisés cherchent la solution la plus efficace pour expédier la myriade de produits vendus par Amazon à travers le monde.

Selon Sucharita Kodali, vice-présidente et analyste principale chez Forrester Resarch, il est intéressant de noter que certaines des technologies IoT les plus avancées ne sont pas vraiment pertinentes pour ce genre d’opérations. « Les technologies IoT coûtent cher et servent surtout à superviser des envois de grande valeur comme les fournitures médicales, qui nécessitent souvent un contrôle de la température. Mais elles ne sont pas utilisées pour les jouets ou les achats de fêtes de moindre valeur, dont la plupart sont expédiés selon le moyen le plus économique possible pour réduire les coûts », a-t-elle expliqué.

Des magasins d’un nouveau genre

Cependant, les projets du département retail d’Amazon sont encore plus ambitieux que l’empire d’achat en ligne du revendeur. En plus de ses nouveaux magasins physiques traditionnels, que l’on trouve actuellement dans 22 États et dans le District of Columbia, les boutiques Amazon Go sont les premières à offrir une expérience d’achat entièrement automatisée : après avoir scanné un code-barres en entrant dans le magasin pour « s’identifier », les acheteurs peuvent prendre ce qu’ils veulent sur les étagères et quitter le magasin sans passer par une caisse. Une application calcule automatiquement le montant de leurs achats et débite leur compte Amazon.

« De toute évidence, il se passe beaucoup de choses dans les coulisses d’un magasin comme celui-ci », a expliqué Mark Hung, vice-président de Gartner Research. Au cœur du concept, il y a la technologie de vision intelligente, qui utilise des caméras pour suivre le déplacement de chaque client dans le magasin. Mais ce n’est pas tout. Si l’entreprise n’a pas fourni de détails précis sur le fonctionnement de son système, Mark Hung pense, d’après certains indices, que le géant du retail a mis en place des capteurs dans les étagères elles-mêmes. « Amazon n’a jamais dévoilé les technologies utilisées dans ses boutiques Amazon Go, mais quelques recherches en ligne permettent de voir qu’il a déposé des brevets pour des technologies d’étagères intelligentes », a-t-il déclaré.

Des caméras pour suivre les achats

En tout cas, c’est ce que fait la jeune startup Zippin, qui cherche à offrir une expérience de vente au détail entièrement automatisée du même genre. Pour assurer un suivi plus précis, Zippin utilise des capteurs de poids intégrés dans les étagères en support de la technologie de vision intelligente. Au mois d’août dernier, Krishna Motukuri, le fondateur de Zippin, a déclaré à Fast Company qu’il suffisait de 15 caméras pour couvrir un minimarché de 300 m2. Comparativement, Amazon Go utilise des centaines de caméras pour chacun de ses magasins (certes plus grands). Zippin exploite actuellement un magasin dans le centre de San Francisco, qui lui sert essentiellement à faire la promotion de sa technologie. Amazon Go possède six magasins — trois à Seattle, deux à Chicago et un à San Francisco —, mais prévoit d’ouvrir jusqu’à 3 000 magasins d’ici 2021.

Identifier les décisions d’achat

Les revendeurs adorent connaître le profil de leurs consommateurs, et cela ne devrait surprendre personne de savoir qu’ils utilisent les technologies IoT pour avoir encore plus d’informations sur leurs clients et s’en servir de levier pour augmenter leurs ventes. Les sites de ventes en ligne ont depuis longtemps acquis un avantage dans ce domaine, car les cookies leur permettent de suivre le parcours des consommateurs à travers de multiples sites de ventes, collectant des données démographiques, des préférences, des informations de localisation et beaucoup (beaucoup) plus de données encore. Cependant, pour rattraper leur retard, les magasins de détail font de plus en plus appel à l’IoT.

Quand Leslie Hand, la vice-présidente de la division Retail chez IDC, demande aux détaillants quels sont les domaines d’innovation technologique les plus importants de demain, ils répondent souvent en premier lieu, l’engagement contextualisé et en temps réel avec les clients. « C’est dans ce contexte que les clients utilisent leur téléphone portable et interagissent individuellement avec le revendeur en fonction de leur localisation, avec lequel ils essayent d’établir une relation plus personnalisée et plus contextualisée tout au long de leur expérience d’achat », a expliqué Leslie Hand.

Les budgets ne suivent pas

En pratique, cela implique essentiellement une technologie de balises. Les revendeurs s’intéressent depuis longtemps aux balises, car elles leur permettent de délivrer des informations fortement personnalisées et pertinentes en fonction de l’emplacement (le plus souvent sous forme de publicités). Plus de 30 % des revendeurs s’intéressent aussi à l’interaction en temps réel avec le client en rayon. Pour cela la combinaison de poids et mesures et de caméras intelligentes (qui ressemblent un peu aux caméras des magasins automatiques) permet d’avoir une image assez claire des articles que les clients mettent dans leur chariot. L’idée finale étant de proposer des produits sur mesure à des consommateurs spécifiques, ou du moins de mettre en avant des produits qui pourraient les intéresser plus que d’autres.

Wal-Mart a même déposé des brevets pour installer des capteurs biométriques sur les poignées des chariots. « Apparemment, ces capteurs permettraient au client d’avoir une meilleure idée de son état de santé à un moment donné », a encore déclaré Leslie Hand. « Mais Wal-Mart veut aussi comprendre où se trouve le client dans un magasin physique ». Selon Mark Hung, toutes ces technologies ne sont pas encore prêtes et ne seront pas en place pour le prochain Noël, et la technologie des balises est surtout répandue dans les arénas sportifs et les aéroports. Comme nous l’avons dit plus haut, les détaillants physiques font face à de sérieux défis économiques, et les dépenses en nouvelles technologies ne sont pas leur priorité immédiate. Et c’est encore plus vrai pour les petits détaillants.

Apple met la main sur Silk Labs et son IA Edge

Apple met la main sur Silk Labs et son IA Edge

Apple a discrètement fait l’acquisition de la startup Silk Labs, spécialisée dans la création de logiciels d’intelligence artificielle assez légers pour travailler en local avec des équipements edge.

Un peu plus d’IA dans la prochaine Watch, l’enceinte HomePod ou le boitier TV d’Apple ? C’est en tout cas le sens de l’acquisition de la start-up Silk Labs par Apple. Intervenu un peu plus tôt dans l’année, ce rachat discret est une petite opération pour la firme de Cupertino puisque Silk Labs ne compte qu’une dizaine d’employés qui seront facilement intégrés.

Basé à San Mateo, Silk Labs a été créée en juin 2015 et a levé 2,5 millions de dollars avant son rachat selon Crunchbase. La start-up témoigne d’une préférence marquée pour des ressources IA plus respectueuses de la vie privée qui fonctionnent localement sur des terminaux personnels. L’intelligence artificielle qui repose sur une plateforme cloud permet en revanche aux entreprises de collecter de grandes quantités de données personnelles pour affiner leurs modèles mathématiques.

Samsung booste la puissance de ses puces Exynos avec la version 9820

Samsung booste la puissance de ses puces Exynos avec la version 9820

Après une première édition dédiée au Galaxy S9 en janvier, Samsung Electronics vient de sortir la deuxième version de son processeur Exynos 9. Cette puce serait sept fois plus rapide que la précédente et est la première construite sur une architecture 8 nm en intègrant un NPU que le coréen produit. Lancement de la production en fin d’année.

Samsung Electronics a annoncé aujourd’hui le lancement de son dernier processeur mobile, l’Exynos 9 Series 9820, équipé pour les applications d’intelligence artificielle intégrées. Il s’agit de la première puce du coréen construite sur une architecture 8nm et possédant un NPU [Neural Processing Unit] intégré. Avec un processeur personnalisé de quatrième génération, un modem LTE Advanced Pro 2 Gbits/s et cette fameuse unité de traitement numérique améliorée (NPU), l’Exynos 9820 va permettre d’apporter de nouvelles expériences intelligentes aux périphériques mobiles.

« Les services liés à l’IA se diversifiant dans les appareils mobiles, leurs processeurs nécessitent donc des capacités de calcul et une efficacité accrues » explique Ben Hur, vice-président du marketing LSI chez Samsung Electronics. La puce d’accélération IA de l’Exynos 9820 effectue les mêmes tâches sept fois plus vite que la 9810, sortie en début d’année. La puissance de calcul est en effet directement intégrée au terminal au lien d’être délocalisée dans des serveurs. De même, l’architecture du cœur d’Exynos 9820 offre une amélioration d’environ 20% des performances monocœur et de 40% de l’efficacité énergétique par rapport à la version précédente. Charger des données et basculer d’une application à une autre seront ainsi plus fluides et rapides.

Pas compatible avec la 5G

Concernant le modem, la vitesse a été passée de 1,2 à 2 Gbits/s. Cependant il n’est pas prêt pour la 5G. Ainsi, le Galaxy F pliable et le S10, qui utiliseront vraisemblablement cette puce, ne seraient donc pas compatible avec la 5G. Ceci alors que Samsung a suggéré que l’une des versions de son prochain S10 le serait. Cette dernière utiliserait donc probablement un processeur Qualcomm avec des performances similaires à l’Exynos 9820.

La partie graphique n’a pas été oubliée puisque le processeur est équipé d’un GPU ARM Mali-G76 qui améliore les performances d’image de 40% et économise 35% d’énergie (toujours comparé au 9810) pour pouvoir jouer à des jeux vidéo ou utiliser des applications de réalité virtuelle plus longtemps. Et pour des expériences multimédias plus immersives, le codec multi-format (MFC) de la version 9820 prend en charge le codage et le décodage de vidéos 4K UHD à 150 images par seconde. Le MFC rend ainsi les couleurs en 10 bits, offrant une représentation plus précise des couleurs. Le lancement de la production du processeur est attendu d’ici la fin de l’année.

Klésia renforce le contrôle des comptes à privilège

Klésia renforce le contrôle des comptes à privilège

Pour améliorer la sécurisation des comptes à privilège, Klésia a choisi de déployer IPdiva Cleanroom de Systancia. Cette approche par environnements de travail à usage unique temporaire rompt avec le projet initial de déployer des bastions classiques.

Constitué en 2012, le groupe Klésia est en train de refondre son système d’information. Un grand nombre de chantiers sont menés en parallèle, d’autant que la mise en conformité RGPD a constitué en elle-même un défi à relever conjointement à une optimisation de la sécurité. En Octobre 2017, un schéma directeur de la sécurité des systèmes d’information a été établi. Parmi les sujets prioritaires, la gestion des comptes à privilèges a été particulièrement mise en avant. Il s’agissait notamment de pouvoir tracer précisément les actions des fameux « utilisateurs à pouvoir ». Mais, suite à un audit au printemps 2018, il s’est avéré que les comptes d’administrateurs devaient également être mieux protégés afin d’éviter l’usurpation de leurs droits.

Microsoft revendique 95% du CAC 40 sur Azure

Microsoft revendique 95% du CAC 40 sur Azure

Parmi les nombreux thèmes abordés sur son événement Experiences, qui s’est tenu à la Porte Maillot les 6 et 7 novembre, Microsoft a souligné la croissance des recrutements sur les profils technologiques et fait témoigner des utilisateurs de ses services cloud Azure, dont eSNCF et Airbus.

Après la 1ère plénière de Microsoft Experiences consacrée hier aux évolutions des métiers, avec l’introduction de l’intelligence artificielle, Microsoft France a consacré ce matin la 2ème plénière de l’événement à Azure et Windows avec Julia White, responsable d’Azure au niveau mondial, et Joe Belfiore, responsable de Windows. En introduction, Carlo Purassanta, président de la filiale française, est revenu sur la perception de l’intelligence artificielle en France avec les résultats d’un sondage conduit par Ifop. « Contre toute attente, les Français sont prêts pour l’IA, 73% en ayant plutôt une bonne image », a-t-il cité. L’IA est vue comme un moyen de faciliter certaines tâches, parfois pénibles ou sans valeur, et 49% des personnes interrogées (*) la jugent de ce fait utile. Si 30% des avertis la décrivent comme une intelligence capable d’apprentissage, près du quart des sondés ne sait en réalité pas la définir, ce qui montre tout de même que ces technologies sont encore mal cernées. Le sondage indique aussi que 33% perçoivent l’IA comme déshumanisante, tandis que 14% la jugent inquiétante et 13% incontrôlable. Nonobstant les aspects positifs mis en avant par Carlo Purassanta, l’enquête dit par ailleurs que 47% des salariés n’adhèrent pas particulièrement au développement de l’IA mais la considèrent comme indispensable. Enfin, ils sont 53% à prévoir qu’elle aura des conséquences sur la pérennité de l’emploi.

Carlo Purassanta a ensuite abordé la notion d’intensité technologique exposée par Satya Nadella, CEO de Microsoft. « Chaque entreprise est lancée dans une transformation profonde et développe sa propre technologie au-dessus des technologies existantes. Chacune devient de ce fait un éditeur de logiciels ». Le PDG de la filiale française cite sur ce point les données agrégées de Linkedin qui « montrent un mouvement de fond sur les embauches de profils technologiques, avec une croissance plus forte de ces embauches dans les entreprises non tech ». Pour accompagner ce mouvement, Carlo Purassanta rappelle l’objectif de Microsoft de former 300 000 professionnels IT en France sur 3 ans et de démocratiser les outils avec un catalogue de services IA « très large » sur Azure. « Ce sont des capacités à utiliser pour vous différencier », a pointé Carlo Purassanta avant de donner la parole à Raphaël Viard, CTO de eSNCF. L’opérateur ferroviaire français est fortement engagé dans une stratégie multi-cloud, Azure étant l’un des trois hébergeurs choisis avec AWS et IBM. (trois acteurs américains donc, pour le groupe français, choisis à la suite d’un appel d’offres européen). La SNCF a déjà exprimé plusieurs fois son objectif de migrer 60% de ses applications dans le cloud public, 1400 à 1500 applications sont concernées.

54 régions Azure ouvertes

Microsoft a actuellement déployé son cloud public sur 54 régions Azure ce qui, a souligné ce matin Julia White, vice-présidente corporate Azure de Microsoft, représente plus qu’AWS et Google combinés. Pour la France, « 95% des entreprises du CAC 40 utilisent Azure », a-t-elle précisé en insistant par ailleurs sur l’importance de disposer d’une infrastructure de cloud hybride cohérente, capable de fournir une approche unique sur les aspects gestion et sécurité. Chez Microsoft, Azure Stack est ainsi proposé comme une extension d’Azure qui permet à une entreprise d’exploiter sur ses propres datacenters les capacités d’Azure, ainsi qu’en périphérie du réseau (at the edge) et en mode déconnecté. Parmi les clients l’ayant adopté, Julia White a cité Airbus et donné la parole à Peter Weckesser, CDO d’Airbus Defense & Space, qui combine l’utilisation du cloud public avec des environnements on-premise isolés.

Julia White a ensuite abordé la suite DevOps de Microsoft, chacun des outils qui la composent pouvant être utilisé de façon indépendante. Au passage, elle a indiqué que l’acquisition du référentiel de projets open source GitHub par l’éditeur de Redmond avait été finalisée la semaine dernière. Parmi les services Azure également mis en avant par la vice-présidente corporate, SQL Data Warehouse traiterait aujourd’hui plus de 3 millions de requêtes serveurs simultanées par heure. Selon Julia White, le service serait jusqu’à 30% moins cher que son concurrent AWS Reshift. Mais sur ce marché des datawarehouses cloud, les offreurs traditionnels (dont Microsoft et Oracle) se trouvent actuellement sérieusement challengés par un outsider comme Snowflake, pure player du datawarehouse en SaaS. La société dirigée par Bob Muglia, un vétéran de Microsoft, connaît en ce moment une forte croissance.

AdTech Ad

Learn, des parcours d’apprentissage en ligne

Julia White a également évoqué Cosmos DB, base de données distribuée sur Azure, qui est le service ayant connu la croissance d’adoption la plus rapide sur Azure. La chaîne de distribution américaine Wallmart l’utilise pour son service jet.com. Enfin, la responsable mondiale d’Azure a clos son intervention sur Learn, site de formation en ligne ouvert par Microsoft sur lequel l’éditeur propose de se former à ses technologies par étapes, en fonction de son emploi du temps. On y trouve déjà plusieurs parcours d’apprentissage sur les services Azure (administrer les conteneurs, exploiter des données NoSQL dans Cosmos DB, sécuriser les données…), ainsi que sur PowerApps, Power BI ou l’utilisation de Connected Field Service pour Dynamics 365 et Azure IoT. L’éditeur compte progressivement lancer des parcours d’apprentissage pour l’ensemble de ses services.

A sa suite, Joe Belfiore, vice-président corporate de Microsoft, responsable de Windows, a consacré son intervention à l’expérience multi-terminaux permettant de passer sans rupture entre son PC sous Windows et son smartphone sous Android ou iOS. Parmi les démonstrations, l’éditeur français Klaxoon (qui a levé 43 M€ en mai) a présenté une intégration renforcée entre son logiciel d’animation de réunions et l’application de collaboration Teams.

(*) Le sondage Microsoft/Ifop a été mené auprès de 1 505 personnes en deux échantillons représentatifs de la population française incluant au total 989 salariés.